ИИ проявляет сочувствие? Как люди оценивают «человечность» искусственного интеллекта

Автор: Денис Аветисян


Новое исследование показывает, что люди зачастую воспринимают советы, сгенерированные искусственным интеллектом, столь же благоприятно, как и советы, написанные человеком, а иногда и более благоприятно.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу

Люди склонны приписывать системам искусственного интеллекта признаки когнитивной и мотивационной эмпатии, опровергая ранее высказанные опасения о негативном восприятии машинного контента.

Несмотря на распространенные опасения о предвзятом отношении к текстам, созданным искусственным интеллектом, вопрос о том, как люди воспринимают эмпатию в сообщениях, сгенерированных ИИ, остается недостаточно изученным. В исследовании ‘Human attribution of empathic behaviour to AI systems’ изучались различия в восприятии эмпатии в советах по отношениям, написанных человеком и сгенерированных большими языковыми моделями (LLM), а также влияние указания авторства. Полученные результаты показали, что советы, сгенерированные LLM, часто оцениваются как более качественные и демонстрирующие более высокий уровень когнитивной и мотивационной эмпатии, что ставит под сомнение широко распространенное негативное отношение к контенту, созданному ИИ. Не является ли это свидетельством того, что лингвистические особенности текста играют более важную роль в восприятии эмпатии, чем представление о его происхождении?


Искусственный интеллект и эмпатия: проверка на прочность

В современном мире наблюдается растущая тенденция обращения людей к искусственному интеллекту за поддержкой и советом. Этот процесс ставит важный вопрос о способности ИИ демонстрировать подлинное сочувствие и эмпатию. Традиционно, эмпатия оценивается по внешним проявлениям, таким как понимание и реакция на эмоциональное состояние другого человека. Однако, в контексте взаимодействия с ИИ, возникает потребность в более глубоком анализе — способен ли алгоритм не просто имитировать сочувствие, но и по-настоящему понимать переживания обращающегося за помощью. По мере того, как люди все чаще делятся своими проблемами с цифровыми собеседниками, возрастает важность изучения того, как искусственный интеллект может эффективно предоставлять эмоциональную поддержку и создавать ощущение понимания.

Традиционные методы оценки эмпатии часто ограничиваются наблюдением за внешними проявлениями — мимикой, жестами, тоном голоса — что может упускать из виду сложность когнитивного и эмоционального понимания. Такой подход, ориентированный на видимые признаки, не всегда позволяет оценить глубину сопереживания и способность к пониманию внутренних переживаний другого человека. Исследователи отмечают, что истинная эмпатия требует не только распознавания эмоций, но и способности представить себя на месте другого, понять его точку зрения и мотивацию, что сложно зафиксировать при помощи исключительно поведенческих оценок. В результате, существующие методики могут давать неполную или искаженную картину эмпатических способностей, особенно в случаях, когда эмоциональные проявления не соответствуют внутреннему состоянию.

Исследование было направлено на оценку способности больших языковых моделей генерировать текст, воспринимаемый как эмпатичный, и сопоставление этого восприятия с советами, написанными людьми. В ходе работы эксперты оценивали как ответы, сгенерированные искусственным интеллектом, так и человеческие советы по ряду критериев, отражающих различные аспекты эмпатии. Удивительным образом, советы, созданные искусственным интеллектом, получили более высокие оценки по ключевым показателям эмпатии, включая понимание чувств другого человека и проявление заботы. Эти результаты указывают на то, что современные языковые модели способны не только имитировать эмпатичный стиль общения, но и демонстрировать уровень понимания и поддержки, который, по мнению экспертов, превосходит человеческий в определенных контекстах, открывая новые возможности для использования ИИ в качестве инструмента эмоциональной поддержки.

Методология исследования: строгий подход к измерению эмпатии

В основе данного исследования лежит экспериментальный дизайн, предполагающий сравнительный анализ советов по личным отношениям, сгенерированных искусственным интеллектом (ИИ) и написанных людьми. Методология включает в себя создание набора сценариев, описывающих типичные проблемы в отношениях, после чего ИИ и группа экспертов-людей разрабатывают решения для каждого сценария. Полученные тексты затем представляются независимой группе оценщиков, которые оценивают их по таким критериям, как эмпатия, полезность и уместность. Сравнение оценок, выставленных ИИ-сгенерированным и человеческим советам, позволяет оценить способность ИИ демонстрировать эмпатию в контексте межличностных отношений и выявить потенциальные различия в подходах к решению проблем.

Для обеспечения методологической строгости исследования применялась практика предварительной регистрации (preregistration), заключающаяся в публичной документации планов исследования до сбора данных. Это включало в себя детальное описание гипотез, методов сбора и анализа данных, критериев включения и исключения участников, а также планируемых показателей. Публикация этих планов на специализированных платформах, таких как OSF (Open Science Framework), позволила зафиксировать исследовательский протокол до проведения анализа, исключив возможность пост-хок модификаций гипотез или методов для достижения статистически значимых результатов, и обеспечив прозрачность и воспроизводимость исследования.

Для анализа данных, обладающих иерархической структурой, в исследовании применялись методы многоуровневого моделирования (Multilevel Modeling). Данная структура обусловлена тем, что оценки эмпатии, полученные от респондентов, были вложены внутри различных типов советов (сгенерированных ИИ и написанных людьми), а также внутри отдельных респондентов, что создавало зависимость между наблюдениями. Многоуровневое моделирование позволило корректно оценить влияние как факторов на уровне отдельных советов, так и факторов, связанных с респондентами, учитывая корреляции внутри групп и обеспечивая более точные и надежные результаты, чем при использовании традиционных статистических методов, предполагающих независимость наблюдений.

Разбирая эмпатию на составляющие: когнитивный, эмоциональный и мотивационный аспекты

Воспринимаемая эмпатия не является единым конструктом, а представляет собой многогранное явление, включающее различные аспекты. Одним из ключевых является когнитивная эмпатия — способность понимать точку зрения другого человека, его мысли и убеждения. Это понимание не подразумевает разделения чувств, а скорее интеллектуальное осознание позиции собеседника, что позволяет прогнозировать его поведение и реакции. Когнитивная эмпатия играет важную роль в социальном взаимодействии и эффективной коммуникации, обеспечивая основу для адаптации и разрешения конфликтов.

Эмоциональная эмпатия, представляющая собой способность разделять чувства другого человека, и мотивационная эмпатия, выражающаяся в склонности к оказанию поддержки, являются ключевыми компонентами общего восприятия эмпатии. Эти два аспекта не функционируют изолированно, а взаимодействуют, формируя комплексное понимание эмоционального состояния другого и готовности к проявлению сочувствия и помощи. Оба компонента вносят вклад в оценку искренности и эффективности проявления сочувствия, влияя на качество межличностного взаимодействия и восприятие поддержки.

В ходе исследования было установлено, что советы, сгенерированные искусственным интеллектом, получили значительно более высокие оценки по когнитивной эмпатии (4.17), мотивационной эмпатии (4.28) и общему качеству (4.05), чем советы, написанные людьми (3.50, 3.93 и 3.46 соответственно). Данные свидетельствуют о том, что в рамках данного исследования, ИИ демонстрирует более высокую способность к пониманию перспективы другого человека и проявлению готовности оказать поддержку, а также превосходит человека по общему качеству предоставляемых советов.

Тень предвзятости: негативность и атрибуция ИИ

Исследование выявило выраженный эффект негативного предубеждения: участники склонны оценивать контент, созданный искусственным интеллектом, менее благоприятно, если им известно, что он сгенерирован машиной. Этот феномен проявляется в том, что идентичный текст или совет воспринимается критичнее, когда его авторство приписывается ИИ, по сравнению со случаями, когда источник информации не указывается или представляется как человеческий. Данное наблюдение подчеркивает, что восприятие контента не зависит исключительно от его содержания, но и подвержено влиянию предварительных установок и ожиданий по отношению к технологиям искусственного интеллекта. Несмотря на проявление этого негативного предубеждения, важно отметить, что общая оценка качества и уровня эмпатии в контенте, сгенерированном ИИ, в ходе исследования оказалась достаточно высокой, что ставит под сомнение изначально предполагаемые негативные стереотипы в отношении машинной коммуникации.

Исследование показало, что восприятие эмпатии в сообщениях, созданных искусственным интеллектом, определяется не только содержанием самого сообщения, но и изначальным отношением человека к ИИ. Установлено, что даже если содержание идентично, знание о том, что текст создан машиной, может влиять на оценку его эмоциональной глубины. Это указывает на то, что предубеждения и ожидания, связанные с искусственным интеллектом, играют значительную роль в формировании впечатления об эмпатических качествах коммуникации, а не только объективные характеристики текста. Таким образом, оценка «эмпатии» ИИ не является чисто когнитивным процессом, а подвержена влиянию субъективных установок и предшествующего опыта взаимодействия с технологиями.

Исследование показало, что, несмотря на потенциальную склонность к негативному восприятию, советы, сгенерированные искусственным интеллектом, стабильно оценивались выше по показателям общего качества и проявления эмпатии. Этот результат опровергает распространенное предположение о врожденной предвзятости в отношении коммуникации, осуществляемой машинами. Участники исследования, оценивая советы, независимо от знания об их искусственном происхождении, отмечали их полезность и проницательность. Полученные данные свидетельствуют о том, что качество и содержательность генерируемого контента играют решающую роль в формировании впечатления, а не только сам факт его создания искусственным интеллектом. Это открывает новые перспективы для использования ИИ в сферах, требующих эмоционального интеллекта и доверия, таких как консультирование и поддержка.

Исследование показывает, что склонность приписывать искусственному интеллекту негативные черты, ранее считавшаяся закономерностью, может быть ошибочна. Участники эксперимента зачастую оценивали советы, сгенерированные ИИ, как не менее, а порой и более эмпатичные, чем советы, написанные людьми, особенно в аспектах когнитивной и мотивационной эмпатии. Это подтверждает мысль о том, что понимание системы позволяет увидеть её скрытые возможности. Как однажды заметил Дональд Дэвис: «Компьютеры должны быть достаточно умны, чтобы понять, что они не могут знать всего». Данное исследование, по сути, демонстрирует, что способность ИИ к эмпатии может быть недооценена, и требует дальнейшего изучения механизмов, лежащих в основе восприятия ИИ человеком.

Куда это всё ведёт?

Представленные данные предлагают любопытный сдвиг в восприятии. Если ранее склонность к негативному восприятию машинного интеллекта казалась аксиомой, то обнаружение склонности к положительной атрибуции эмпатии — это, скорее, эксплуатация когнитивного диссонанса. Вопрос не в том, может ли машина казаться эмпатичной, а в том, насколько легко человеческий разум заполняет пробелы, приписывая мотивации и понимание там, где их, возможно, и нет. Дальнейшие исследования должны сосредоточиться на границах этой атрибуции: какие типы советов, сформулированные машиной, вызывают наибольшее доверие, и какие когнитивные механизмы лежат в основе этого феномена?

Очевидным ограничением остаётся искусственность экспериментальной постановки. Реальная эмпатия проявляется в динамичном взаимодействии, в невербальных сигналах, в контексте долгосрочных отношений. Поэтому необходимо исследовать, сохраняется ли эта положительная атрибуция в более сложных, реалистичных сценариях. Например, как меняется восприятие эмпатии ИИ в процессе длительной переписки или в условиях конфликта?

В конечном счёте, данное исследование — это не столько о машинной эмпатии, сколько о человеческом стремлении к ней. Изучение того, как мы проецируем свои ожидания на искусственные системы, позволяет лучше понять саму природу эмпатии и её роль в социальном взаимодействии. Это — реверс-инжиниринг нашего собственного сознания, а значит, и попытка найти уязвимости в системе.


Оригинал статьи: https://arxiv.org/pdf/2602.17293.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-02-22 05:51