Автор: Денис Аветисян
Новое исследование демонстрирует, насколько хорошо современные модели искусственного интеллекта способны анализировать и понимать ошибки в рукописных математических вычислениях учащихся.

Представлен набор данных ScratchMath и методика оценки, выявляющие существенные пробелы в способности многомодальных больших языковых моделей (MLLM) к анализу ошибок в рукописных решениях математических задач.
Оценка рукописных решений учащихся представляет собой сложную задачу, требующую учета разнообразия почерков и подходов к решению. В работе ‘Can MLLMs Read Students’ Minds? Unpacking Multimodal Error Analysis in Handwritten Math’ представлен новый бенчмарк ScratchMath, предназначенный для анализа способности мультимодальных больших языковых моделей (MLLM) выявлять и объяснять ошибки в рукописных математических вычислениях. Результаты оценки 16 ведущих MLLM выявили значительный разрыв в производительности по сравнению с экспертами-людьми, особенно в задачах визуального распознавания и логического вывода. Смогут ли будущие модели действительно «прочитать мысли» учащихся и предложить персонализированную обратную связь, основанную на глубоком понимании их ошибок?
Выявление ошибок учащегося: задача для искусственного интеллекта
Современные системы искусственного интеллекта испытывают трудности при анализе рукописных работ учащихся, поскольку выявление ошибок требует гораздо большего, чем просто распознавание паттернов. Проблема заключается не только в идентификации неверного ответа, но и в понимании причины, стоявшей за ошибкой — будь то недопонимание концепции, невнимательность или небрежное письмо. Простые алгоритмы, основанные на сопоставлении с эталонными решениями, часто оказываются неэффективными, поскольку не учитывают индивидуальные особенности почерка, нелогичные, но последовательные ошибки, и контекст задачи. Для эффективной помощи учащимся требуется AI, способный к глубокому анализу, учитывающему не только что написано, но и как, а также понимающий логику рассуждений, лежащую в основе решения, что представляет собой значительный вызов для разработчиков.
Определение причины, лежащей в основе ошибки, допущенной учащимся, имеет первостепенное значение для обеспечения целенаправленной образовательной поддержки, однако эта задача представляет собой серьезную проблему. Простое обнаружение неверного ответа недостаточно; необходимо понять, связано ли это с недостаточным пониманием концепции, невнимательностью, вычислительной ошибкой или другими факторами. Существующие автоматизированные системы часто ограничены способностью различать эти нюансы, что препятствует разработке эффективных стратегий вмешательства, способных адаптироваться к конкретным потребностям каждого ученика. Понимание когнитивных процессов, приводящих к ошибкам, позволяет разрабатывать персонализированные учебные материалы и методики, направленные на устранение первопричин трудностей и, как следствие, повышение успеваемости.
Существующие методы автоматической проверки студенческих работ зачастую не способны провести различие между поверхностными и фундаментальными ошибками, что серьезно ограничивает эффективность образовательных интервенций. Например, пропуск знака препинания или незначительная вычислительная ошибка могут быть идентифицированы как равнозначные недопониманию базовых математических концепций. Такое упрощение приводит к неверной оценке пробелов в знаниях и, как следствие, к назначению неадекватных упражнений или объяснений. Вместо того, чтобы предложить целенаправленную помощь, система может предоставить студенту дополнительное задание по теме, которую он уже освоил, или, наоборот, предложить слишком сложный материал. Разработка алгоритмов, способных анализировать контекст ошибки и выявлять ее истинную природу, является ключевой задачей для создания действительно полезных и адаптивных образовательных инструментов.

ScratchMath: Эталон для понимания ошибок
Бенчмарк ScratchMath представляет собой уникальный набор данных, состоящий из рукописных работ учеников, полученных из образцов китайской математической письменной работы. В отличие от существующих наборов данных, основанных на печатном тексте или цифровых изображениях, ScratchMath оперирует реальными рукописными решениями задач, что позволяет оценивать модели в условиях, максимально приближенных к реальной учебной практике. Набор данных включает в себя широкий спектр математических задач и ошибок, отражающих типичные трудности, с которыми сталкиваются учащиеся в процессе обучения математике. Объем данных и разнообразие представленных ошибок делают ScratchMath ценным ресурсом для разработки и оценки моделей, способных к глубокому пониманию и анализу математических решений.
Для оценки понимания причин ошибок в математических задачах, бенчмарк ScratchMath использует два основных типа заданий: классификацию причины ошибки (Error Cause Classification, ECC) и объяснение причины ошибки (Error Cause Explanation, ECE). ECC требует от модели определить категорию ошибки, например, вычислительную, концептуальную или ошибку в записи. ECE идёт дальше, требуя от модели предоставить текстовое объяснение источника ошибки, демонстрируя способность к логическому выводу и пониманию процесса решения задачи. Оба типа задач направлены на всестороннюю оценку способности модели не только обнаруживать ошибки, но и понимать их природу и причины возникновения.
В отличие от традиционных задач по обнаружению ошибок, бенчмарк ScratchMath требует от моделей не только констатации факта наличия ошибки в решении математической задачи, но и определения её первопричины. Это предполагает выход за рамки простого сопоставления с правильным ответом и требует анализа логики рассуждений ученика, выявления конкретного момента, где возникла ошибка. Такой подход ставит задачу, требующую более глубокого понимания математических концепций и способности к логическому выводу, что значительно усложняет задачу для существующих моделей искусственного интеллекта и подталкивает к разработке новых подходов в области машинного обучения и рассуждений.

Расшифровка визуальных и логических ошибок с помощью MLLM
Многомодальные большие языковые модели (MLLM) демонстрируют способность анализировать черновики решений задач, однако их эффективность существенно различается в зависимости от типа допущенной ошибки. Наблюдается значительная вариативность в производительности моделей при классификации причин ошибок (Error Cause Classification, ECC), с показателями точности в диапазоне 50-70% (см. рисунок 6). Это указывает на то, что модели успешно распознают некоторые типы ошибок, но испытывают трудности с другими, что свидетельствует о необходимости дальнейшей оптимизации и специализации для эффективного анализа студенческих работ.
Многомодальные большие языковые модели (MLLM) демонстрируют трудности в анализе студенческих работ, особенно при наличии ошибок, связанных с распознаванием рукописных символов и логическим мышлением. Неспособность корректно интерпретировать рукописный текст, будь то нечеткое написание цифр или символов, приводит к неверной классификации причин ошибок. Кроме того, модели испытывают сложности при анализе логической последовательности действий, что проявляется в неспособности выявлять ошибки, связанные с неправильным применением математических правил или неверной интерпретацией условий задачи. Данные проблемы ограничивают возможности автоматизированной проверки и диагностики ошибок в студенческих работах.
Анализ ошибок, допускаемых учащимися, показывает, что современные многомодальные языковые модели (MLLM) испытывают трудности с классификацией конкретных типов ошибок. К ним относятся ошибки транскрипции (неправильное переписывание), невнимательность к деталям и пробелы в концептуальных знаниях, что свидетельствует о сложности когнитивных процессов, лежащих в основе решения задач. Согласно данным, представленным на Рисунке 6, лучшие модели демонстрируют точность в диапазоне 50-70% при классификации причин ошибок (Error Cause Classification, ECC). Этот показатель указывает на значительные возможности для улучшения моделей в части понимания и интерпретации ошибок, возникающих в процессе обучения.
Анализ ошибок, совершаемых студентами, показывает, что значительная доля неточностей связана с проблемами распознавания рукописного текста, что подтверждается данными, представленными на Рисунке 5. Сложность интерпретации рукописного ввода обусловлена вариативностью почерка, нечеткостью написания и наличием шумов. Для повышения точности классификации причин ошибок и улучшения работы моделей машинного обучения (MLLM) критически важна совместная аннотация данных экспертами-людьми и компьютерными системами. Такой подход позволяет выявлять и исправлять ошибки в автоматической интерпретации, а также создавать более надежные и точные модели, способные анализировать студенческие работы.

Таксономия ошибок учащегося и перспективы развития
В рамках эталонного набора данных ScratchMath разработана детализированная таксономия ошибок, позволяющая классифицировать неверные ответы учащихся по различным категориям. Эта классификация включает в себя ошибки, связанные с процедурой решения задачи, вычислениями, логическими рассуждениями, описками, непониманием условий, недостатком знаний в предметной области, а также невнимательностью. Такое разделение позволяет не просто констатировать факт ошибки, но и выявлять ее природу, что является ключевым фактором для разработки более эффективных образовательных инструментов и систем искусственного интеллекта, способных адаптироваться к индивидуальным потребностям обучающихся и предоставлять целенаправленную поддержку.
Разработанная таксономия ошибок позволяет перейти от общей оценки производительности модели к детальному анализу её слабых мест. Вместо простого определения правильности или неправильности ответа, эта система классифицирует ошибки по типу — будь то процедурные неточности, вычислительные погрешности, логические ошибки, опечатки, непонимание задачи, недостаток знаний или невнимательность. Такой подход предоставляет возможность не только выявить проблемные области в работе модели, но и целенаправленно улучшать её функциональность, фокусируясь на конкретных типах ошибок и разрабатывая специализированные методы их исправления. Это, в свою очередь, открывает путь к созданию более эффективных и надежных систем искусственного интеллекта в сфере образования.
Предложен подход, использующий большие языковые модели (LLM) в качестве автоматизированной системы оценки соответствия сгенерированных моделью объяснений эталонным, «правильным» ответам. Данная методика демонстрирует высокую надежность, достигая показателя в 88.6%, что сопоставимо с уровнем согласованности между двумя экспертами-людьми, оценивающими одно и то же объяснение (91.4%). Такой автоматизированный анализ позволяет объективно измерять качество объяснений, генерируемых искусственным интеллектом, и открывает перспективы для создания более прозрачных и понятных образовательных систем, способных эффективно оценивать и корректировать процесс обучения.
Систематический анализ типичных ошибок, допускаемых учащимися при решении математических задач, открывает возможности для создания более эффективных инструментов обучения и индивидуализированных образовательных траекторий. Изучение закономерностей в этих ошибках позволяет педагогам и разработчикам искусственного интеллекта точно определить области, требующие дополнительной поддержки и углубленного изучения. На основе полученных данных можно адаптировать учебные материалы, предлагая персонализированные упражнения и объяснения, направленные на устранение конкретных пробелов в знаниях. Такой подход не только повышает эффективность обучения, но и способствует развитию у учащихся более глубокого понимания математических концепций, а также формирует навыки самостоятельного исправления ошибок и критического мышления.
Исследование, представленное в данной работе, подчеркивает критическую важность точной диагностики ошибок в математических выкладках, что перекликается с фундаментальными принципами математической строгости. Как заметил Карл Фридрих Гаусс: «Я не знаю, как мир устроен, но как только я пойму его математическую структуру, я смогу объяснить всё». Созданный датасет ScratchMath, позволяющий оценивать способность многомодальных больших языковых моделей к анализу рукописных решений, выявляет значительные пробелы в их способности к логическому выводу и пониманию причинно-следственных связей. Если модель не может точно определить источник ошибки, она лишь имитирует понимание, а не демонстрирует истинное логическое мышление, что является недопустимым с точки зрения математической элегантности.
Куда Ведет Этот Путь?
Представленный анализ, зафиксированный в наборе данных ScratchMath, выявляет не столько способность моделей к “пониманию” математических ошибок, сколько их умение имитировать логические выводы на основе статистических закономерностей. Иллюзия “суждения”, создаваемая этими моделями, особенно при оценке рукописных работ, не должна заслонять фундаментальный вопрос: действительно ли алгоритм способен отличить истинную математическую ошибку от простой неаккуратности в записи? Настоящая проверка заключается не в достижении высоких показателей на тестовых примерах, а в математической доказуемости корректности алгоритма.
Очевидно, что эвристические подходы, столь часто используемые в современных моделях, являются компромиссом между точностью и вычислительной сложностью. Необходимо признать, что за “пониманием” часто скрывается простое сопоставление образов. Будущие исследования должны быть направлены на разработку моделей, способных к формальной верификации математических рассуждений, а не просто к статистическому предсказанию правильных ответов. Особенно актуален вопрос о создании моделей, способных не только выявлять ошибки, но и объяснять их природу с точки зрения математической логики.
Попытки создать “искусственный интеллект”, способный мыслить как математик, должны начинаться не с увеличения объема обучающих данных, а с разработки принципиально новых алгоритмов, основанных на формальной логике и математической доказуемости. Иначе, все усилия будут направлены лишь на совершенствование иллюзии, а не на достижение истинного понимания.
Оригинал статьи: https://arxiv.org/pdf/2603.24961.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Самообучающиеся агенты: новый подход к автономным системам
- Укрощение Бесконечности: Алгебраические Инструменты для Кватернионов и За их Пределами
- Квантовый поиск: новый взгляд на оптимизацию
- Понимание мира в динамике: новая модель для анализа 4D-данных
- От визуализации к управлению: новый взгляд на модели мира
- Искусственный интеллект в разговоре: что обсуждают друг с другом AI?
- Квантовые амбиции: Иран вступает в гонку
- Язык тела под присмотром ИИ: архитектура и гарантии
- Bibby AI: Новый помощник для исследователей в LaTeX
- Наука определений: Автоматическое извлечение знаний из научных текстов
2026-03-27 21:58