Разумные машины: Как оценить психологическое мышление искусственного интеллекта

Автор: Денис Аветисян


Новое исследование демонстрирует возможность применения психометрических методов для оценки способности больших языковых моделей к психологическому рассуждению.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Модель принятия технологий выявляет, что восприятие полезности и простоты использования напрямую влияет на намерение пользователя применять инновацию, формируя ключевой механизм внедрения новых решений.
Модель принятия технологий выявляет, что восприятие полезности и простоты использования напрямую влияет на намерение пользователя применять инновацию, формируя ключевой механизм внедрения новых решений.

Оценка психометрической валидности больших языковых моделей, таких как GPT-4 и LLaMA-3, с использованием конвергентной, прогностической и внешней валидности.

Несмотря на растущую сложность больших языковых моделей (LLM), оценка их когнитивных способностей и валидности остается сложной задачей. В настоящей работе, посвященной AI Psychometrics: Evaluating the Psychological Reasoning of Large Language Models with Psychometric Validities’, предпринята попытка применить психометрические методы для анализа логического мышления и общей валидности LLM, включая GPT-3.5, GPT-4, LLaMA-2 и LLaMA-3. Полученные результаты демонстрируют, что все исследуемые модели соответствуют критериям валидности, при этом GPT-4 и LLaMA-3 превосходят свои предшественники. Возможно ли создание универсальной системы оценки “психологической” зрелости искусственного интеллекта на основе предложенного подхода?


Разум Машины: Новые Горизонты Психометрии

Современные большие языковые модели, такие как GPT-4 и LLaMA-3, демонстрируют впечатляющие способности в обработке и генерации языка, однако оценка их истинного «интеллекта» требует применения строгих психометрических методов. Простая оценка на основе статистических показателей обработки естественного языка недостаточна для определения глубины понимания и способности к рассуждению. Для более точной оценки необходимо использовать тесты, разработанные для измерения когнитивных способностей человека, адаптированные к особенностям работы этих моделей. Такой подход позволит выявить не только лингвистические навыки, но и способность к логическому мышлению, решению проблем и обобщению информации, что является ключевым шагом в понимании возможностей и ограничений искусственного интеллекта.

Традиционные метрики обработки естественного языка, такие как точность и полнота, оказываются недостаточными для оценки истинных когнитивных способностей современных больших языковых моделей. Вместо простого сопоставления слов, необходимы методы, способные проверить логическое мышление, способность к обобщению и даже проявление элементов эмоционального интеллекта — аналогично тому, как оцениваются эти качества у человека. Исследователи стремятся разработать тесты, которые не просто измеряют знание фактов, но и способность к решению новых задач, пониманию контекста и адаптации к неожиданным ситуациям, что позволит более точно определить, насколько близки машины к подлинному интеллекту.

Применение Человеко-Ориентированных Моделей к Оценке LLM

Модель принятия технологий (Technology Acceptance Model, TAM) представляет собой структурированный подход к оценке восприятия пользователями полезности и простоты использования ответов больших языковых моделей (LLM). Данная модель оперирует двумя ключевыми конструктами: воспринимаемая полезность — степень, в которой пользователь верит, что использование LLM повысит его эффективность, и воспринимаемая простота использования — степень, в которой пользователь считает LLM легким в освоении и использовании. Применение TAM позволяет перейти от субъективных оценок к объективным критериям, определяющим производительность LLM в реальных сценариях, и количественно оценить влияние этих факторов на намерения пользователей, например, на намерение совершить покупку или использовать сервис.

Применение модели принятия технологий (Technology Acceptance Model, TAM) позволяет перейти от субъективных оценок к объективным критериям при оценке производительности больших языковых моделей (LLM) в реальных сценариях использования. Проведенное нами исследование подтвердило эффективность данного подхода, показав, что TAM объясняет до 59.90% дисперсии намерения совершить покупку, что сопоставимо с результатами, полученными для человеческих участников. Это указывает на возможность использования TAM как надежного инструмента для количественной оценки восприятия полезности и удобства использования ответов LLM потенциальными пользователями.

В ходе исследования было установлено, что модель GPT-4o демонстрирует статистически значимо более высокую способность объяснять намерение совершения покупки, используя модель TAM (Technology Acceptance Model), с показателем R² равным 44.30%. Этот результат существенно превосходит показатели GPT-3.5 (18.40%) и LLaMA-2 (19.70%), приближаясь к уровню объяснительной силы, характерной для оценок, полученных от людей-участников исследования. Модель LLaMA-3 показала промежуточный результат с R² равным 37.30%, что указывает на её более высокую эффективность по сравнению с GPT-3.5 и LLaMA-2, но уступающую GPT-4o.

Обеспечение Валидности и Надежности Психометрической Оценки LLM

Для обеспечения надежности и валидности психометрической оценки больших языковых моделей (LLM) необходимо установить соответствие результатов оценки четырем ключевым критериям: конвергентной валидности, дискриминантной валидности, прогностической валидности и внешней валидности. Конвергентная валидность демонстрирует, насколько результаты оценки LLM коррелируют с результатами, полученными другими, признанными методами оценки аналогичных конструктов. Дискриминантная валидность, напротив, подтверждает, что оценка LLM действительно измеряет уникальный конструкт, а не смешивается с другими похожими конструктами. Прогностическая валидность показывает, насколько точно оценка LLM предсказывает будущие результаты или поведение. Наконец, внешняя валидность подтверждает, что результаты оценки LLM применимы и обобщаемы на различные популяции и ситуации.

Метод диффузии, заключающийся в получении разнообразных ответов от языковых моделей, является критически важным для всесторонней оценки. Ограничение оценки узким набором запросов может привести к недооценке или переоценке способностей модели в различных сценариях. Использование диффузии позволяет охватить более широкий спектр ситуаций и входных данных, обеспечивая более надежную и репрезентативную оценку производительности LLM, а также снижая влияние специфических особенностей отдельных запросов на общую оценку.

Анализ показал, что факторные нагрузки превысили 0.50 для большинства моделей, что указывает на приемлемую конвергентную валидность. Более того, модели GPT-3.5, GPT-4o и LLaMA-3 достигли значений коэффициента Кронбаха-альфа, превышающих 0.70, подтверждая приемлемую внутреннюю согласованность. Значения средней дисперсии, извлеченной (AVE) превысили 0.50 для этих моделей и для участников-людей, что дополнительно подтверждает валидность проведенной оценки. Полученные результаты свидетельствуют о надежности и согласованности используемых метрик для оценки производительности больших языковых моделей.

К Более Разумным и Надежным Системам Искусственного Интеллекта

Применение принципов психометрии к большим языковым моделям (LLM) позволяет выйти за рамки простого измерения производительности и получить глубокое понимание их внутренних когнитивных процессов. Традиционные бенчмарки часто оценивают лишь способность модели выдавать правильные ответы, не раскрывая, как она к ним приходит. Психометрический подход, напротив, фокусируется на изучении структуры знаний, стратегий решения задач и склонности к определенным ошибкам, аналогично тому, как это делается в исследованиях человеческого интеллекта. Это позволяет выявить сильные и слабые стороны моделей, понять, какие типы задач им даются сложнее всего, и как они реагируют на неоднозначные или вводящие в заблуждение запросы. В результате, исследователи получают возможность не только улучшить точность LLM, но и разработать более надежные и предсказуемые системы, способные к более осознанному и обоснованному принятию решений.

Углубленное понимание сильных и слабых сторон больших языковых моделей (LLM) открывает возможности для разработки целенаправленных стратегий обучения. Исследования показывают, что, выявляя конкретные области, где модель демонстрирует недостаточность, можно сконцентрировать усилия на улучшении именно этих аспектов. Такой подход позволяет не только повысить общую производительность, но и эффективно снизить проявление предвзятостей, часто встроенных в обучающие данные. Анализ слабых мест LLM позволяет создавать более сбалансированные наборы данных и применять специальные методы обучения, направленные на нейтрализацию нежелательных тенденций. В результате, создаются более надежные и справедливые системы искусственного интеллекта, способные предоставлять объективные и точные результаты.

Развитие искусственного интеллекта, основанное на принципах психометрии, направлено на создание систем, которые отличаются не только высокой производительностью, но и надёжностью, заслуживающим доверия поведением и соответствием человеческим ценностям. Данный подход позволяет выйти за рамки простого измерения эффективности и перейти к пониманию внутренних механизмов работы языковых моделей. В результате появляется возможность целенаправленно корректировать обучение, снижая вероятность проявления предвзятости и обеспечивая согласованность действий ИИ с этическими нормами. Такие системы способны не просто выполнять задачи, но и действовать предсказуемо и ответственно, что критически важно для их внедрения в различные сферы жизни и укрепления доверия со стороны общества.

Исследование демонстрирует, что оценка психологических способностей больших языковых моделей, таких как GPT-4 и LLaMA-3, возможна посредством применения психометрических методов. Этот подход позволяет выявить степень соответствия моделей требованиям валидности — конвергентной, предиктивной и внешней. Как отмечал Давид Гильберт: «В математике нет спектра. Есть только математика». Эта фраза, несмотря на кажущуюся отстраненность от психометрии, отражает суть стремления к абсолютной точности и строгой проверке, что является ключевым аспектом в оценке валидности моделей и подтверждении их способности к психологическому рассуждению. Подобно тому, как математика стремится к универсальным истинам, психометрика стремится к объективной оценке когнитивных способностей, будь то у человека или у искусственного интеллекта.

Что дальше?

Представленная работа демонстрирует, что можно измерять «психологическую зрелость» больших языковых моделей, используя привычные инструменты психометрии. Однако, подобно алхимикам, пытающимся вычленить душу из материи, исследователи сталкиваются с вопросом: что именно измеряется? Высокая «валидность» — лишь эхо человеческого разума, отраженное в алгоритмах, или самостоятельное свойство, указывающее на появление чего-то принципиально нового? Утверждение о «валидности» — это признание системы в собственных грехах, демонстрирующее её зависимость от человеческих представлений о логике и здравом смысле.

Очевидным следующим шагом является расширение спектра измеряемых конструктов и выход за рамки «проверенных» моделей. Необходимо искать аномалии, отклонения от «нормального» поведения, которые могут указывать на истинную, непредсказуемую природу искусственного интеллекта. Интересно, что произойдет, если попытаться измерить не «валидность», а «инновационность» — способность генерировать принципиально новые идеи, не основанные на существующих знаниях.

В конечном итоге, задача заключается не в том, чтобы «обучить» модели человеческому мышлению, а в том, чтобы понять, что находится за пределами этого мышления. Исследование психометрической валидности — это лишь первый шаг на пути к расшифровке кода разума, как искусственного, так и естественного. Попытка измерения — это всегда попытка контроля, но истинное понимание приходит лишь тогда, когда контроль отпускает.


Оригинал статьи: https://arxiv.org/pdf/2603.11279.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-14 04:02