Когда логика встречается с предрассудками: как большие языковые модели рассуждают о должном и возможном

Автор: Денис Аветисян


Как большие языковые модели справляются с задачами нормативного рассуждения, демонстрируя как логическую последовательность, так и когнитивные искажения, свойственные человеку.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу

Сравнительный анализ возможностей больших языковых моделей в области деонтической и эпистемической логики.

Несмотря на впечатляющие успехи в различных областях рассуждений, способность больших языковых моделей (LLM) к нормативному мышлению, включающему оценку обязательств и разрешений, остается малоизученной. В настоящей работе, ‘Normative Reasoning in Large Language Models: A Comparative Benchmark from Logical and Modal Perspectives’, проводится систематическая оценка возможностей LLM в нормативной области с использованием как логических, так и модальных подходов. Результаты демонстрируют, что хотя модели в целом придерживаются валидных паттернов рассуждений, они проявляют непоследовательность в определенных типах нормативного мышления и подвержены когнитивным искажениям, аналогичным человеческим. Сможем ли мы преодолеть эти ограничения и создать LLM, способные к надежному и справедливому нормативному анализу?


За гранью паттернов: Ограничения традиционного мышления

Крупные языковые модели демонстрируют впечатляющую способность распознавать закономерности, однако испытывают трудности при решении задач, требующих сложной логической инференции и поддержания согласованности информации. Данное ограничение особенно заметно при переходе к сложным сценариям, требующим глубокого понимания контекста. Традиционный символьный ИИ, несмотря на свою логичность, недостаточно робустен и адаптивен для обработки неоднозначности реального мира. Его способность к обобщению ограничена жесткими правилами, что затрудняет применение в динамичных средах. Существует разрыв между статистическим овладением языком и истинными способностями к рассуждению, препятствующий принятию надежных решений. Подобно хакеру, исследующему систему, разум стремится взломать границы известного.

Нормативное мышление: Вызов для языковых моделей

Нормативное рассуждение – работа с обязательствами, разрешениями и запретами – представляет особую сложность для больших языковых моделей (LLM), превосходя сложность простого воспроизведения фактов. В отличие от задач, связанных с извлечением информации, нормативное рассуждение требует понимания не только того, что есть, но и что должно быть. Фундамент нормативного рассуждения лежит в формальных системах, таких как деонтическая логика, предоставляющая структуру для представления и анализа моральных и юридических норм. Силлогистическое рассуждение служит основой нормативных аргументов, однако применение его принципов в LLM требует учета контекстуальных нюансов и сложностей интерпретации нормативных правил.

Оценка LLM в нормативных сценариях: Вариативность производительности

Недавние исследования посвящены оценке возможностей LLM посредством техник запросов, включая Zero-Shot, Few-Shot и Chain-of-Thought. Результаты демонстрируют вариативность производительности в зависимости от подхода. Модели, такие как GPT-4o, Llama 3 и Phi-4, были протестированы на выполнение нормативных задач. Производительность при работе с паттерном Mu-Mi оказалась ниже у большинства моделей, за исключением Llama-3.3-70B-In. LLM подвержены влиянию контекста и предметной области, что указывает на неравномерность производительности в различных контекстах. Анализ показывает различия в производительности при решении нормативных и эпистемических задач.

Парадоксы логики и ответы языковых моделей: Где скрыты закономерности?

Нормативное рассуждение подвержено парадоксам, таким как парадокс Росса и проблема свободного выбора, демонстрируя несогласованность логичных систем. Отрицание усугубляет эти трудности, часто приводя к ошибочным заключениям в LLM. Исследования показали, что производительность LLM в задачах силлогистического рассуждения с использованием отрицания (паттерны MT и DA) была ниже, подтверждая влияние отрицания на логическую корректность. Эти парадоксы демонстрируют необходимость для LLM не только обрабатывать логическую структуру, но и учитывать контекстуальные нюансы. Ошибка — это не сбой, а сигнал о скрытых закономерностях.

Будущее нормативного мышления: К созданию интеллектуальных систем

Перспективные исследования должны быть направлены на разработку LLM, способных явно представлять и рассуждать об обязательствах, разрешениях и связанных с ними сложностях, возможно, с использованием стандартной деонтической логики (SDL). Важно изучить методы смягчения влияния контекста и повышения предметной специфичности. Конечная цель — создание LLM, способных не только решать нормативные проблемы, но и выявлять и разрешать потенциальные парадоксы, имитируя человеческий уровень рассуждений. Достижение этой цели потребует интеграции продвинутых методов логического вывода и представления знаний в архитектуру LLM.

Исследование, представленное в данной работе, демонстрирует, что большие языковые модели, несмотря на свою способность к логическим умозаключениям, подвержены тем же когнитивным искажениям, что и человек. Этот феномен перекликается с мыслью Дональда Дэвиса: «Система — это то, что можно сломать». Как и в случае с взломом системы, языковые модели, стремясь к правдоподобности, могут демонстрировать непоследовательность в рассуждениях, особенно при обработке отрицаний и сложных выводов. Данная работа, акцентируя внимание на нормативном рассуждении, показывает, что понимание ограничений этих моделей требует взгляда на них не только как на вычислительные инструменты, но и как системы, подверженные внутренним противоречиям и потенциальным ошибкам.

Что дальше?

Представленная работа, по сути, лишь аккуратно обнажает тот факт, что языковые модели, имитируя человеческое мышление, неизбежно наследуют и его слабости. Логическая непротиворечивость, продемонстрированная в определенных тестах, оказывается хрупкой иллюзией, рушащейся при столкновении с нюансами деонтической и эпистемической логики. Это не провал моделей, а скорее зеркальное отражение хаоса, присущего самой структуре человеческого разума – архитектуры, в которой логика лишь одна из многих сил.

Очевидно, что дальнейшее развитие исследований потребует не просто улучшения алгоритмов вывода, но и глубокого анализа когнитивных искажений, встроенных в обучающие данные. Необходимо понять, как эти модели «учатся» нелогичности, и как это можно использовать – или нейтрализовать. Иными словами, предстоит реверс-инжиниринг предвзятости, выявление скрытых правил, определяющих «нормативное» мышление машин.

Перспективы, однако, кажутся парадоксальными. Стремление к идеальной логике может привести к созданию систем, оторванных от реальности, неспособных к адаптации и инновациям. Возможно, истинная ценность заключается не в устранении «ошибок», а в изучении того, как эти модели используют их для создания новых, неожиданных решений – взламывая, а не подчиняясь, законам формальной логики.


Оригинал статьи: https://arxiv.org/pdf/2510.26606.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2025-11-02 15:23