Интеллектуальные помощники для науки: адаптивные объяснения на основе графов знаний

Автор: Денис Аветисян


Новый подход позволяет искусственному интеллекту объяснять сложные научные концепции, учитывая особенности мышления эксперта и его текущий уровень понимания.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Адаптивный подход к объяснению поведения агента формирует персонализированные профили через встраивание данных, кластеризацию и синтез с использованием больших языковых моделей, а затем использует эти профили в качестве условий для формирования вознаграждений в обучении с подкреплением.
Адаптивный подход к объяснению поведения агента формирует персонализированные профили через встраивание данных, кластеризацию и синтез с использованием больших языковых моделей, а затем использует эти профили в качестве условий для формирования вознаграждений в обучении с подкреплением.

В статье представлена методика, использующая персонализированные модели рассуждений и графы знаний для создания адаптивных объяснений в экспертных системах, повышая доверие и удобство использования в таких областях, как открытие лекарств.

Несмотря на растущую сложность научных задач, существующие методы объяснимого искусственного интеллекта (XAI) часто не учитывают индивидуальные когнитивные стратегии экспертов. В работе ‘Agentic Personas for Adaptive Scientific Explanations with Knowledge Graphs’ предложен подход, использующий агентные персоны — структурированные представления экспертного мышления — для генерации адаптивных объяснений на основе графов знаний. Показано, что персонализированные объяснения соответствуют предпочтениям экспертов и превосходят неадаптивные аналоги, при этом снижая потребность в прямом получении обратной связи. Возможно ли масштабирование адаптивной объяснимости для поддержки принятия решений в других высокорисковых областях, таких как медицина и инженерия?


Пределы Статического Объяснения

Традиционные методы объяснения в графах знаний часто предоставляют статичные, универсальные ответы, не учитывая разнообразие потребностей пользователей и стилей рассуждений. Вместо адаптации к конкретному вопросу или уровню понимания, эти системы выдают один и тот же результат для всех, независимо от контекста или предыстости пользователя. Это приводит к тому, что объяснения могут быть непонятными, нерелевантными или даже вводящими в заблуждение для определенной аудитории, что снижает доверие к системе и препятствует эффективному принятию решений. Особенно остро эта проблема проявляется в сложных областях, где требуется детальное понимание и учет множества факторов, и где единый ответ не может удовлетворить все потребности.

Применение стандартных методов объяснения в сложных сценариях зачастую сталкивается с ограничениями, поскольку они не способны предоставить детальные и нюансированные ответы, необходимые для принятия обоснованных решений. В критически важных областях, таких как медицина или финансы, недостаточность объяснений может привести к снижению доверия к системам искусственного интеллекта и, как следствие, к ошибочным действиям. Неспособность учесть контекст и предоставить персонализированные объяснения, учитывающие специфику ситуации и потребности пользователя, существенно ограничивает практическую ценность этих систем и подчеркивает необходимость разработки более адаптивных и информативных подходов к объяснению принимаемых решений.

Существующие системы логического вывода, основанные на поиске путей в графах знаний, такие как MINERVA и PoLo, предоставляют базовые объяснения, демонстрируя возможность вывода заключений из имеющихся данных. Однако, эти системы часто сталкиваются с ограничениями в адаптации к индивидуальным потребностям пользователя и предоставлении релевантных объяснений. Несмотря на то, что они успешно выстраивают цепочки рассуждений, эти подходы не учитывают различные когнитивные стили или контекст запроса, что приводит к объяснениям, которые могут быть не всегда понятны или полезны для конкретного пользователя. Отсутствие персонализации и гибкости снижает эффективность таких систем в сложных сценариях, где требуется не просто ответ, а убедительное и адаптированное к восприятию пользователя обоснование.

Существует значительный пробел в способности систем объяснения знаний учитывать индивидуальные подходы пользователей к доказательствам и формированию понимания — их эпистемическую позицию. Традиционные методы часто предоставляют объяснения, не учитывающие, как конкретный человек интерпретирует информацию и приходит к выводам. Например, один пользователь может предпочесть объяснение, основанное на статистической значимости, в то время как другому более важны причинно-следственные связи или аналогии с известными случаями. Отсутствие адаптации к этим различным способам познания может снизить доверие к системе и затруднить эффективное принятие решений, особенно в областях, требующих критического анализа и оценки информации. Разработка систем, способных учитывать и отражать эпистемические предпочтения пользователей, представляется ключевой задачей для повышения эффективности и удобства использования интеллектуальных систем.

Результаты опроса показали, что участники предпочитают адаптивные объяснения, демонстрируя более высокую оценку их полезности по сравнению с неадаптивными.
Результаты опроса показали, что участники предпочитают адаптивные объяснения, демонстрируя более высокую оценку их полезности по сравнению с неадаптивными.

Агентные Персоны: Моделирование Экспертного Рассуждения

В рамках исследования в области разработки лекарственных препаратов были разработаны агентные персоны — структурированные представления стратегий рассуждений экспертов. Эти персоны созданы на основе анализа данных, полученных в ходе экспертной оценки, и представляют собой формализованные модели, отражающие специфические подходы экспертов к анализу информации и формулированию гипотез. Агентные персоны служат для моделирования когнитивных процессов, используемых экспертами в процессе принятия решений, и позволяют воспроизводить их логику рассуждений в автоматизированных системах.

Персонажи-агенты реализуются с использованием больших языковых моделей (LLM), что позволяет захватывать нюансы интерпретации доказательств и формирования гипотез, характерные для экспертов в предметной области. LLM позволяют моделировать когнитивные процессы, включая оценку релевантности данных, выявление закономерностей и экстраполяцию знаний на новые ситуации. В процессе реализации LLM обучаются на данных, отражающих экспертные суждения и рассуждения, что позволяет им генерировать ответы и объяснения, соответствующие уровню и стилю мышления экспертов. Такой подход позволяет не просто воспроизводить экспертные знания, но и моделировать сам процесс экспертного принятия решений.

Процесс создания персон экспертов основан на методе нарративного синтеза с использованием больших языковых моделей. Для дистилляции обратной связи от экспертов применяются методы кластеризации — K-Means, агломеративная кластеризация и HDBSCAN — совместно с семантическими вложениями, полученными с помощью Sentence-BERT. Это позволяет выделить типичные паттерны рассуждений и сформировать структурированные представления, отражающие особенности анализа данных и формулирования гипотез, характерные для экспертов в области разработки лекарственных средств.

Персонажи, основанные на моделировании экспертного мышления, не являются статичными профилями, а динамически влияют на процесс генерации объяснений. Реализация позволяет адаптировать стиль и содержание объяснений в соответствии с определенными когнитивными стилями, выявленными в ходе анализа экспертных оценок. Это достигается за счет использования больших языковых моделей, которые формируют объяснения, учитывая особенности восприятия и обработки информации, характерные для конкретного когнитивного стиля. Таким образом, генерируемые объяснения становятся более понятными и эффективными для пользователей с различными способами мышления.

Визуализация t-SNE показывает разделение ответов экспертов на две группы с помощью агломеративной кластеризации: ответы Елены (n=13, светло-голубой) и Лео (n=2, темно-голубой).
Визуализация t-SNE показывает разделение ответов экспертов на две группы с помощью агломеративной кластеризации: ответы Елены (n=13, светло-голубой) и Лео (n=2, темно-голубой).

Обучение с Подкреплением для Адаптивного Объяснения

В системе используется обучение с подкреплением для интеграции агентивных персон в процесс генерации объяснений. Это позволяет динамически выбирать и формулировать объяснения на основе графа знаний, адаптируя их к конкретной заданной персоне. Вместо статических объяснений, система активно изучает, какие стратегии представления информации наиболее эффективно соответствуют критериям, заданным персоной, и использует эти знания для формирования объяснений. Такой подход позволяет генерировать объяснения, которые не только корректны и релевантны, но и соответствуют ожиданиям и стилю коммуникации, характерным для определенной персоны, повышая их понятность и убедительность.

Ключевым элементом системы является функция вознаграждения, разработанная для соответствия критериям оценки, зависящим от выбранной персоны. Реализация функции вознаграждения осуществляется посредством Persona-Conditioned Reward, что позволяет динамически адаптировать процесс генерации объяснений в соответствии с характеристиками заданной персоны. Это достигается путем учета специфических предпочтений и ожиданий, связанных с каждой персоной, при оценке качества генерируемых объяснений. Использование Persona-Conditioned Reward обеспечивает соответствие объяснений не только фактической точности и релевантности, но и стилистическим и содержательным требованиям, заданным персоной, что является критически важным для повышения эффективности коммуникации.

Система использует Граф Знаний для определения потенциальных путей объяснения, рассматривая различные связи и узлы для построения логической цепочки. Для приоритизации достоверности и релевантности этих путей используются системы REx и RExLight. REx (Reasoning Explainer) и RExLight применяют алгоритмы поиска и оценки, чтобы выбрать наиболее обоснованные и информативные пути объяснения, основываясь на структуре и содержании Графа Знаний. Эти системы оценивают каждый путь по критериям точности, полноты и соответствия заданному вопросу, что позволяет формировать объяснения, основанные на фактах и исключающие ложные или нерелевантные сведения.

Адаптивные объяснения генерируются с использованием языковой модели GPT-4o-mini, обеспечивая формирование нарративов, понятных для человека, и адаптированных к заданному профилю (персоне). Эти объяснения опираются на базовый граф знаний, гарантируя их содержательную обоснованность. В ходе экспертной оценки, адаптивные объяснения были признаны предпочтительнее неадаптированных базовых моделей в диапазоне от 63,3% до 76,0% случаев, что свидетельствует о значительном улучшении качества предоставляемой информации.

Использование обратной связи, основанной на персонах, позволяет сократить время обучения политик объяснения в два порядка величины.
Использование обратной связи, основанной на персонах, позволяет сократить время обучения политик объяснения в два порядка величины.

Последствия для Доверия и Поддержки Принятия Решений

Современные системы искусственного интеллекта часто предоставляют объяснения, не учитывающие уровень знаний и убеждений пользователя — его “эпистемическую позицию”. Новый подход направлен на преодоление этой проблемы, предлагая персонализированную поддержку принятия решений. Вместо универсальных объяснений, система адаптирует предоставляемую информацию, учитывая исходные представления пользователя о мире и конкретной задаче. Такая адаптация не только облегчает понимание, но и существенно повышает доверие к системе, поскольку объяснения воспринимаются как релевантные и понятные именно для данного пользователя. В результате, взаимодействие с ИИ становится более продуктивным и эффективным, позволяя пользователю не просто получать ответы, но и критически оценивать ход рассуждений системы и формировать собственное обоснованное мнение.

В областях, связанных с высокими рисками, таких как разработка лекарственных препаратов, адаптивное объяснение моделей искусственного интеллекта приобретает особую значимость. Понимание не просто конечного результата, а и логики, лежащей в основе прогнозов, критически важно для принятия обоснованных решений. В фармацевтике, где каждая деталь может повлиять на здоровье пациентов, возможность критически оценить предложенные кандидаты в лекарства, понять факторы, повлиявшие на выбор, и учесть нюансы конкретной клинической ситуации, позволяет специалистам эффективно использовать потенциал искусственного интеллекта, не полагаясь на него слепо. Такой подход обеспечивает более глубокое осмысление информации и, как следствие, повышает доверие к системам поддержки принятия решений в критически важных областях.

Адаптивное объяснение выходит за рамки простого предоставления верных ответов, стремясь к более глубокому пониманию лежащих в основе рассуждений. Вместо пассивного принятия результатов, пользователь получает возможность проследить логику, применённую системой для достижения конкретного вывода. Такой подход позволяет не просто доверять решению, но и критически оценивать его обоснованность, выявлять потенциальные ошибки или неточности. Это особенно важно в областях, где требуется тщательный анализ и взвешенное принятие решений, поскольку позволяет пользователю самостоятельно формировать собственное мнение, опираясь на прозрачность и понятность процесса рассуждений, а не на слепую веру в авторитет системы.

Исследования показали, что использование персонализированных профилей — так называемых «персон» — для оценки и корректировки работы систем искусственного интеллекта значительно повышает эффективность обучения. В частности, время, необходимое для тренировки моделей, сократилось в отдельных случаях до 187 раз по сравнению с использованием исключительно обратной связи от людей-экспертов. Важно отметить, что оценки, данные этими персонами, демонстрируют высокую степень согласованности с мнениями квалифицированных специалистов — коэффициенты корреляции Пирсона варьировались от 0.56 до 0.91, что подтверждает надежность и валидность данного подхода к оптимизации алгоритмов и снижению затрат на разработку.

В отличие от неадаптивных объяснений, основанных на правилах (REx), персонализированные объяснения позволяют более эффективно обосновать назначение Фенофибрата при ишемической болезни сердца.
В отличие от неадаптивных объяснений, основанных на правилах (REx), персонализированные объяснения позволяют более эффективно обосновать назначение Фенофибрата при ишемической болезни сердца.

Исследование демонстрирует, что понимание системы требует не только знания её структуры, но и способности моделировать различные точки зрения на неё. Авторы предлагают использовать агентные персоны, основанные на графах знаний, для адаптации объяснений, что соответствует идее о том, что познание — это своего рода реверс-инжиниринг реальности. Как однажды заметил Давид Гильберт: «Мы должны знать. Мы должны знать, что мы можем знать». Это особенно важно в таких областях, как открытие лекарств, где адаптивность и доверие к объяснениям играют ключевую роль. Агентные персоны, моделируя различные эпистемические позиции, позволяют взглянуть на проблему под разными углами, углубляя понимание и повышая эффективность исследования.

Что дальше?

Представленный подход, безусловно, открывает новые возможности для адаптации объяснений в системах искусственного интеллекта, однако он лишь подчеркивает фундаментальную проблему: объяснение — это не просто трансляция логики машины, а конструирование нарратива, соответствующего когнитивным искажениям и предрассудкам эксперта. Каждая «личность», выведенная из графа знаний, — это, по сути, систематизированное заблуждение, элегантно упакованное в формат, приемлемый для человеческого разума. Следующим шагом представляется не столько улучшение моделирования этих «личностей», сколько признание их искусственности и поиск способов демонстрации лежащих в основе рассуждений, а не только их результатов.

Ограничения текущего подхода очевидны: калибровка «личности» требует значительных объемов размеченных данных, а устойчивость к непредсказуемым запросам и новым доменам остается под вопросом. Более того, сама идея адаптации объяснений может оказаться иллюзией: возможно, истинная ценность заключается не в угождении когнитивным предпочтениям эксперта, а в предоставлении ему инструментов для самостоятельной верификации и оспаривания логики системы. Ведь, как известно, баг — это признание системы в собственных грехах, а не попытка их скрыть.

В перспективе представляется интересным исследование возможности создания «анти-личностей» — объяснений, намеренно противоречащих ожиданиям эксперта, чтобы спровоцировать критическое мышление и выявить скрытые предположения. Или, возможно, более радикальный подход — отказ от объяснений вообще, замена их интерактивными симуляциями, позволяющими эксперту самостоятельно исследовать пространство решений и делать собственные выводы. В конечном итоге, задача состоит не в том, чтобы научить машину объяснять, а в том, чтобы научить эксперта мыслить.


Оригинал статьи: https://arxiv.org/pdf/2603.21846.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-24 18:23