Автор: Денис Аветисян
Новый подход позволяет искусственному интеллекту объяснять сложные научные концепции, учитывая особенности мышления эксперта и его текущий уровень понимания.

В статье представлена методика, использующая персонализированные модели рассуждений и графы знаний для создания адаптивных объяснений в экспертных системах, повышая доверие и удобство использования в таких областях, как открытие лекарств.
Несмотря на растущую сложность научных задач, существующие методы объяснимого искусственного интеллекта (XAI) часто не учитывают индивидуальные когнитивные стратегии экспертов. В работе ‘Agentic Personas for Adaptive Scientific Explanations with Knowledge Graphs’ предложен подход, использующий агентные персоны — структурированные представления экспертного мышления — для генерации адаптивных объяснений на основе графов знаний. Показано, что персонализированные объяснения соответствуют предпочтениям экспертов и превосходят неадаптивные аналоги, при этом снижая потребность в прямом получении обратной связи. Возможно ли масштабирование адаптивной объяснимости для поддержки принятия решений в других высокорисковых областях, таких как медицина и инженерия?
Пределы Статического Объяснения
Традиционные методы объяснения в графах знаний часто предоставляют статичные, универсальные ответы, не учитывая разнообразие потребностей пользователей и стилей рассуждений. Вместо адаптации к конкретному вопросу или уровню понимания, эти системы выдают один и тот же результат для всех, независимо от контекста или предыстости пользователя. Это приводит к тому, что объяснения могут быть непонятными, нерелевантными или даже вводящими в заблуждение для определенной аудитории, что снижает доверие к системе и препятствует эффективному принятию решений. Особенно остро эта проблема проявляется в сложных областях, где требуется детальное понимание и учет множества факторов, и где единый ответ не может удовлетворить все потребности.
Применение стандартных методов объяснения в сложных сценариях зачастую сталкивается с ограничениями, поскольку они не способны предоставить детальные и нюансированные ответы, необходимые для принятия обоснованных решений. В критически важных областях, таких как медицина или финансы, недостаточность объяснений может привести к снижению доверия к системам искусственного интеллекта и, как следствие, к ошибочным действиям. Неспособность учесть контекст и предоставить персонализированные объяснения, учитывающие специфику ситуации и потребности пользователя, существенно ограничивает практическую ценность этих систем и подчеркивает необходимость разработки более адаптивных и информативных подходов к объяснению принимаемых решений.
Существующие системы логического вывода, основанные на поиске путей в графах знаний, такие как MINERVA и PoLo, предоставляют базовые объяснения, демонстрируя возможность вывода заключений из имеющихся данных. Однако, эти системы часто сталкиваются с ограничениями в адаптации к индивидуальным потребностям пользователя и предоставлении релевантных объяснений. Несмотря на то, что они успешно выстраивают цепочки рассуждений, эти подходы не учитывают различные когнитивные стили или контекст запроса, что приводит к объяснениям, которые могут быть не всегда понятны или полезны для конкретного пользователя. Отсутствие персонализации и гибкости снижает эффективность таких систем в сложных сценариях, где требуется не просто ответ, а убедительное и адаптированное к восприятию пользователя обоснование.
Существует значительный пробел в способности систем объяснения знаний учитывать индивидуальные подходы пользователей к доказательствам и формированию понимания — их эпистемическую позицию. Традиционные методы часто предоставляют объяснения, не учитывающие, как конкретный человек интерпретирует информацию и приходит к выводам. Например, один пользователь может предпочесть объяснение, основанное на статистической значимости, в то время как другому более важны причинно-следственные связи или аналогии с известными случаями. Отсутствие адаптации к этим различным способам познания может снизить доверие к системе и затруднить эффективное принятие решений, особенно в областях, требующих критического анализа и оценки информации. Разработка систем, способных учитывать и отражать эпистемические предпочтения пользователей, представляется ключевой задачей для повышения эффективности и удобства использования интеллектуальных систем.

Агентные Персоны: Моделирование Экспертного Рассуждения
В рамках исследования в области разработки лекарственных препаратов были разработаны агентные персоны — структурированные представления стратегий рассуждений экспертов. Эти персоны созданы на основе анализа данных, полученных в ходе экспертной оценки, и представляют собой формализованные модели, отражающие специфические подходы экспертов к анализу информации и формулированию гипотез. Агентные персоны служат для моделирования когнитивных процессов, используемых экспертами в процессе принятия решений, и позволяют воспроизводить их логику рассуждений в автоматизированных системах.
Персонажи-агенты реализуются с использованием больших языковых моделей (LLM), что позволяет захватывать нюансы интерпретации доказательств и формирования гипотез, характерные для экспертов в предметной области. LLM позволяют моделировать когнитивные процессы, включая оценку релевантности данных, выявление закономерностей и экстраполяцию знаний на новые ситуации. В процессе реализации LLM обучаются на данных, отражающих экспертные суждения и рассуждения, что позволяет им генерировать ответы и объяснения, соответствующие уровню и стилю мышления экспертов. Такой подход позволяет не просто воспроизводить экспертные знания, но и моделировать сам процесс экспертного принятия решений.
Процесс создания персон экспертов основан на методе нарративного синтеза с использованием больших языковых моделей. Для дистилляции обратной связи от экспертов применяются методы кластеризации — K-Means, агломеративная кластеризация и HDBSCAN — совместно с семантическими вложениями, полученными с помощью Sentence-BERT. Это позволяет выделить типичные паттерны рассуждений и сформировать структурированные представления, отражающие особенности анализа данных и формулирования гипотез, характерные для экспертов в области разработки лекарственных средств.
Персонажи, основанные на моделировании экспертного мышления, не являются статичными профилями, а динамически влияют на процесс генерации объяснений. Реализация позволяет адаптировать стиль и содержание объяснений в соответствии с определенными когнитивными стилями, выявленными в ходе анализа экспертных оценок. Это достигается за счет использования больших языковых моделей, которые формируют объяснения, учитывая особенности восприятия и обработки информации, характерные для конкретного когнитивного стиля. Таким образом, генерируемые объяснения становятся более понятными и эффективными для пользователей с различными способами мышления.

Обучение с Подкреплением для Адаптивного Объяснения
В системе используется обучение с подкреплением для интеграции агентивных персон в процесс генерации объяснений. Это позволяет динамически выбирать и формулировать объяснения на основе графа знаний, адаптируя их к конкретной заданной персоне. Вместо статических объяснений, система активно изучает, какие стратегии представления информации наиболее эффективно соответствуют критериям, заданным персоной, и использует эти знания для формирования объяснений. Такой подход позволяет генерировать объяснения, которые не только корректны и релевантны, но и соответствуют ожиданиям и стилю коммуникации, характерным для определенной персоны, повышая их понятность и убедительность.
Ключевым элементом системы является функция вознаграждения, разработанная для соответствия критериям оценки, зависящим от выбранной персоны. Реализация функции вознаграждения осуществляется посредством Persona-Conditioned Reward, что позволяет динамически адаптировать процесс генерации объяснений в соответствии с характеристиками заданной персоны. Это достигается путем учета специфических предпочтений и ожиданий, связанных с каждой персоной, при оценке качества генерируемых объяснений. Использование Persona-Conditioned Reward обеспечивает соответствие объяснений не только фактической точности и релевантности, но и стилистическим и содержательным требованиям, заданным персоной, что является критически важным для повышения эффективности коммуникации.
Система использует Граф Знаний для определения потенциальных путей объяснения, рассматривая различные связи и узлы для построения логической цепочки. Для приоритизации достоверности и релевантности этих путей используются системы REx и RExLight. REx (Reasoning Explainer) и RExLight применяют алгоритмы поиска и оценки, чтобы выбрать наиболее обоснованные и информативные пути объяснения, основываясь на структуре и содержании Графа Знаний. Эти системы оценивают каждый путь по критериям точности, полноты и соответствия заданному вопросу, что позволяет формировать объяснения, основанные на фактах и исключающие ложные или нерелевантные сведения.
Адаптивные объяснения генерируются с использованием языковой модели GPT-4o-mini, обеспечивая формирование нарративов, понятных для человека, и адаптированных к заданному профилю (персоне). Эти объяснения опираются на базовый граф знаний, гарантируя их содержательную обоснованность. В ходе экспертной оценки, адаптивные объяснения были признаны предпочтительнее неадаптированных базовых моделей в диапазоне от 63,3% до 76,0% случаев, что свидетельствует о значительном улучшении качества предоставляемой информации.

Последствия для Доверия и Поддержки Принятия Решений
Современные системы искусственного интеллекта часто предоставляют объяснения, не учитывающие уровень знаний и убеждений пользователя — его “эпистемическую позицию”. Новый подход направлен на преодоление этой проблемы, предлагая персонализированную поддержку принятия решений. Вместо универсальных объяснений, система адаптирует предоставляемую информацию, учитывая исходные представления пользователя о мире и конкретной задаче. Такая адаптация не только облегчает понимание, но и существенно повышает доверие к системе, поскольку объяснения воспринимаются как релевантные и понятные именно для данного пользователя. В результате, взаимодействие с ИИ становится более продуктивным и эффективным, позволяя пользователю не просто получать ответы, но и критически оценивать ход рассуждений системы и формировать собственное обоснованное мнение.
В областях, связанных с высокими рисками, таких как разработка лекарственных препаратов, адаптивное объяснение моделей искусственного интеллекта приобретает особую значимость. Понимание не просто конечного результата, а и логики, лежащей в основе прогнозов, критически важно для принятия обоснованных решений. В фармацевтике, где каждая деталь может повлиять на здоровье пациентов, возможность критически оценить предложенные кандидаты в лекарства, понять факторы, повлиявшие на выбор, и учесть нюансы конкретной клинической ситуации, позволяет специалистам эффективно использовать потенциал искусственного интеллекта, не полагаясь на него слепо. Такой подход обеспечивает более глубокое осмысление информации и, как следствие, повышает доверие к системам поддержки принятия решений в критически важных областях.
Адаптивное объяснение выходит за рамки простого предоставления верных ответов, стремясь к более глубокому пониманию лежащих в основе рассуждений. Вместо пассивного принятия результатов, пользователь получает возможность проследить логику, применённую системой для достижения конкретного вывода. Такой подход позволяет не просто доверять решению, но и критически оценивать его обоснованность, выявлять потенциальные ошибки или неточности. Это особенно важно в областях, где требуется тщательный анализ и взвешенное принятие решений, поскольку позволяет пользователю самостоятельно формировать собственное мнение, опираясь на прозрачность и понятность процесса рассуждений, а не на слепую веру в авторитет системы.
Исследования показали, что использование персонализированных профилей — так называемых «персон» — для оценки и корректировки работы систем искусственного интеллекта значительно повышает эффективность обучения. В частности, время, необходимое для тренировки моделей, сократилось в отдельных случаях до 187 раз по сравнению с использованием исключительно обратной связи от людей-экспертов. Важно отметить, что оценки, данные этими персонами, демонстрируют высокую степень согласованности с мнениями квалифицированных специалистов — коэффициенты корреляции Пирсона варьировались от 0.56 до 0.91, что подтверждает надежность и валидность данного подхода к оптимизации алгоритмов и снижению затрат на разработку.

Исследование демонстрирует, что понимание системы требует не только знания её структуры, но и способности моделировать различные точки зрения на неё. Авторы предлагают использовать агентные персоны, основанные на графах знаний, для адаптации объяснений, что соответствует идее о том, что познание — это своего рода реверс-инжиниринг реальности. Как однажды заметил Давид Гильберт: «Мы должны знать. Мы должны знать, что мы можем знать». Это особенно важно в таких областях, как открытие лекарств, где адаптивность и доверие к объяснениям играют ключевую роль. Агентные персоны, моделируя различные эпистемические позиции, позволяют взглянуть на проблему под разными углами, углубляя понимание и повышая эффективность исследования.
Что дальше?
Представленный подход, безусловно, открывает новые возможности для адаптации объяснений в системах искусственного интеллекта, однако он лишь подчеркивает фундаментальную проблему: объяснение — это не просто трансляция логики машины, а конструирование нарратива, соответствующего когнитивным искажениям и предрассудкам эксперта. Каждая «личность», выведенная из графа знаний, — это, по сути, систематизированное заблуждение, элегантно упакованное в формат, приемлемый для человеческого разума. Следующим шагом представляется не столько улучшение моделирования этих «личностей», сколько признание их искусственности и поиск способов демонстрации лежащих в основе рассуждений, а не только их результатов.
Ограничения текущего подхода очевидны: калибровка «личности» требует значительных объемов размеченных данных, а устойчивость к непредсказуемым запросам и новым доменам остается под вопросом. Более того, сама идея адаптации объяснений может оказаться иллюзией: возможно, истинная ценность заключается не в угождении когнитивным предпочтениям эксперта, а в предоставлении ему инструментов для самостоятельной верификации и оспаривания логики системы. Ведь, как известно, баг — это признание системы в собственных грехах, а не попытка их скрыть.
В перспективе представляется интересным исследование возможности создания «анти-личностей» — объяснений, намеренно противоречащих ожиданиям эксперта, чтобы спровоцировать критическое мышление и выявить скрытые предположения. Или, возможно, более радикальный подход — отказ от объяснений вообще, замена их интерактивными симуляциями, позволяющими эксперту самостоятельно исследовать пространство решений и делать собственные выводы. В конечном итоге, задача состоит не в том, чтобы научить машину объяснять, а в том, чтобы научить эксперта мыслить.
Оригинал статьи: https://arxiv.org/pdf/2603.21846.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Отражения культуры: Как языковые модели рассказывают истории
- Самообучающиеся агенты: новый подход к автономным системам
- Укрощение Бесконечности: Алгебраические Инструменты для Кватернионов и За их Пределами
- Искусственный интеллект, который знает, когда ему нужна подсказка
- Визуальное мышление машин: проверка на прочность
- Наука определений: Автоматическое извлечение знаний из научных текстов
- Искусственный интеллект в разговоре: что обсуждают друг с другом AI?
- Квантовые состояния под давлением: сжатие данных для новых алгоритмов
- Гармония в коде: Распознавание аккордов с помощью глубокого обучения
- Визуальный след: Сжатие рассуждений для мощных языковых моделей
2026-03-24 18:23