Автор: Денис Аветисян
Новое исследование показывает, что снижение доверия к человеческим источникам информации может приводить к росту доверия к искусственному интеллекту как к альтернативному советчику.

Работа посвящена феномену ‘отложенного доверия’ и изучает взаимосвязь между недоверием к людям и готовностью полагаться на рекомендации ИИ в процессе принятия решений.
Несмотря на растущую популярность искусственного интеллекта, механизмы формирования доверия к нему остаются недостаточно изученными. Данное исследование, озаглавленное ‘Trust in AI emerges from distrust in humans: A machine learning study on decision-making guidance’, посвящено феномену «отложенного доверия», когда снижение доверия к людям компенсируется повышенной склонностью полагаться на ИИ. Полученные результаты демонстрируют, что именно недоверие к человеческим агентам является ключевым предиктором выбора ИИ в качестве источника информации и рекомендаций. Не приведет ли эта тенденция к чрезмерной зависимости от алгоритмов и каковы оптимальные стратегии калибровки бдительности в эпоху все более «умных» технологий?
Разрушение Веры: Эволюция Доверия в Эпоху Искусственного Интеллекта
Традиционные представления о доверии, формировавшиеся веками в процессе человеческого взаимодействия, сегодня подвергаются серьезным испытаниям с появлением искусственного интеллекта. Ранее доверие строилось на наблюдаемых чертах характера, репутации и возможности личного контакта, что позволяло оценить надежность собеседника. Однако взаимодействие с ИИ, лишенным этих человеческих атрибутов, требует переосмысления этих принципов. Теперь оценка надежности происходит на основе алгоритмической прозрачности, качества предоставляемой информации и соответствия ожидаемым результатам. Этот сдвиг порождает новые вопросы о природе доверия в цифровом мире и необходимости разработки адекватных моделей, учитывающих специфику взаимодействия человека с искусственным интеллектом. По сути, происходит трансформация фундаментальных основ социального взаимодействия, где алгоритмы постепенно заменяют личные связи в процессе формирования доверия.
Традиционные модели, такие как TAM и UTAUT, разработанные для оценки доверия к технологиям, оказываются недостаточными применительно к большим языковым моделям. Это связано с тем, что они изначально ориентированы на взаимодействие с системами, где пользователь воспринимает их как инструменты для выполнения конкретных задач. В отличие от этого, большие языковые модели ведут беседы, имитируя человеческое общение, что вносит новые факторы, формирующие доверие. Невозможность учесть динамику диалога, способность модели адаптироваться к запросам и проявлять признаки «личности» в разговоре, искажает результаты, полученные с помощью классических моделей. Таким образом, для адекватной оценки доверия к современным ИИ требуется разработка новых, более гибких и учитывающих контекст подходов.
В условиях все более широкого распространения искусственного интеллекта в повседневной жизни, понимание механизмов формирования доверия к этим системам приобретает первостепенное значение. Исследования показывают, что люди склонны наделять ИИ качествами, аналогичными человеческим, что может приводить к необоснованному доверию или, наоборот, к чрезмерной осторожности. Важно учитывать, что доверие к ИИ формируется под влиянием множества факторов, включая прозрачность алгоритмов, объяснимость принимаемых решений и соответствие ожидаемым результатам. Игнорирование этих аспектов может привести к серьезным последствиям в различных сферах, от здравоохранения и финансов до образования и безопасности, подчеркивая необходимость глубокого изучения и разработки стратегий по формированию обоснованного и ответственного доверия к искусственному интеллекту.
Деконструкция Веры: Ключевые Влияния и Механизмы
Доверие не является единым понятием, а формируется на основе как объективной надёжности (точность, достоверность информации и предсказуемость действий), так и субъективных оценок компетентности и благожелательности источника информации или агента. Различают эпистемическое доверие, основанное на оценке способности источника предоставлять правдивую и точную информацию, и социальное доверие, которое формируется на основе восприятия намерений и мотивации агента. Таким образом, доверие является многокомпонентным явлением, сочетающим когнитивные оценки надёжности и аффективные оценки социальных качеств.
Прозрачность и беглость (плавность) информации оказывают значительное влияние на формирование доверия. Исследования показывают, что увеличение беглости обработки информации, например, за счет простоты изложения или знакомого формата, может снижать уровень критического мышления (эпистемическую бдительность) у получателя. Это, в свою очередь, повышает восприимчивость к дезинформации и ложным утверждениям, поскольку снижается склонность к тщательному анализу и проверке поступающих данных. Эффект проявляется независимо от фактической достоверности информации; легкость восприятия может создать иллюзию правдивости, даже если содержание не соответствует действительности.
Оценка алгоритмов и автоматизированная предвзятость могут приводить к завышенному доверию к системам искусственного интеллекта, даже при наличии очевидных ошибок в их работе. Данный феномен проявляется в тенденции пользователей переоценивать точность и надежность результатов, генерируемых алгоритмами, просто в силу того, что они были получены автоматизированным способом. Исследования показывают, что люди склонны доверять системам, воспринимаемым как «умные» или «автоматические», даже если альтернативные, менее автоматизированные решения демонстрируют большую точность. Это может приводить к принятию неверных решений, основанных на ошибочных данных, особенно в критически важных областях, таких как медицина или финансы.
Предсказание Веры: Машинное Обучение на Службе Понимания
Для прогнозирования выбора агента (человек или ИИ) была применена модель XGBoost, алгоритм машинного обучения, известный своей высокой производительностью и способностью обрабатывать сложные зависимости. В качестве входных данных использовался набор индивидуальных характеристик участников исследования и факторы, определяющие характер взаимодействия. XGBoost позволил построить модель, способную предсказывать предпочтения участников в выборе между человеком и ИИ, основываясь на анализе этих характеристик и факторов. Модель была обучена на данных, собранных в ходе эксперимента, и продемонстрировала способность выявлять закономерности, определяющие выбор агента.
Для интерпретации модели XGBoost, обученной для предсказания выбора агента (человек или ИИ), был проведен SHAP-анализ. Данный анализ позволил выявить ключевые предикторы доверия и оценить их относительную важность в принятии решений пользователями. В результате установлено, что определенные характеристики участников и параметры взаимодействия оказывают значительное влияние на вероятность выбора ИИ, при этом SHAP-значения количественно оценили вклад каждого фактора в предсказанное значение. Полученные данные позволяют ранжировать предикторы по степени их влияния на доверие и понять, какие факторы наиболее критичны для формирования предпочтений пользователей в отношении ИИ.
Для сегментации участников и сценариев на основе паттернов выбора агента (человек или ИИ) были применены алгоритмы K-Means и K-Modes кластеризации. Кластеризация сценариев с использованием K-Modes показала хорошие показатели разделения кластеров: индекс Дэвиса-Болдина составил 0.809, а Dunn-like индекс — 1.052. Эти результаты указывают на то, что сценарии можно эффективно разделить на отдельные группы, характеризующиеся различными предпочтениями в выборе между человеческим и искусственным агентами, что позволяет выявить факторы, влияющие на доверие к различным типам агентов в разных ситуациях.
Результаты моделирования показали высокую точность выявления факторов, предсказывающих выбор ИИ-агента. Средняя точность (average precision) для различных сценариев составила 0.8813 ± 0.0872 (Ситуация 24), 0.8638 ± 0.0995 (Ситуация 26) и 0.8705 ± 0.0801 (Ситуация 9). Указанные значения представляют собой среднее арифметическое, полученное на основе результатов кросс-валидации, с указанием стандартного отклонения, отражающего стабильность и надежность полученных результатов.
Эра Отложенной Веры: Когда Искусственный Интеллект Становится Предпочтительным Источником
Исследования выявили феномен “отложенного доверия”, заключающийся в переходе от недоверия к человеческим агентам к доверию к искусственному интеллекту. Этот сдвиг обусловлен восприятием ИИ как более нейтрального и компетентного источника информации, особенно в ситуациях, когда традиционные авторитеты вызывают сомнения. Люди склонны полагаться на алгоритмы и машинное обучение, полагая, что они лишены предвзятости и способны к объективному анализу данных, в отличие от субъективных суждений, свойственных людям. Таким образом, ИИ постепенно занимает место, освобождающееся по мере снижения доверия к человеческим институтам и экспертам, становясь предпочтительным источником информации и рекомендаций.
Исследование выявило, что снижение доверия к традиционным источникам информации, таким как СМИ, эксперты или государственные институты, закономерно усиливает склонность к доверию к искусственному интеллекту. В условиях растущего скептицизма и поляризации общества, когда люди испытывают трудности с определением достоверных источников, ИИ предстает как нейтральный посредник, лишенный субъективности и предвзятости, присущих человеческим агентам. Это создает своего рода «социальный пробел», который ИИ способен заполнить, выступая в роли беспристрастного поставщика информации и принимая на себя функцию, ранее выполняемую институтами, утратившими доверие. В результате, наблюдается перенос доверия с людей на алгоритмы, особенно в ситуациях, когда информация вызывает сомнения или противоречия.
Исследования выявили заметную связь между социально-экономическим положением и уровнем доверия к источникам информации, как человеческим, так и искусственному интеллекту. Оказалось, что лица с более низким социально-экономическим статусом зачастую имеют ограниченный доступ к разнообразным и проверенным источникам информации, что может приводить к снижению доверия к традиционным институтам и, как следствие, к большей восприимчивости к информации, предоставляемой системами искусственного интеллекта. Искусственный интеллект, воспринимаемый как нейтральный и беспристрастный, может заполнить информационный пробел, возникший из-за недостатка доступа к надежным источникам, что приводит к формированию повышенного доверия к технологиям, особенно среди групп населения, испытывающих социальную и экономическую изоляцию. Этот феномен подчеркивает важность обеспечения равного доступа к информации для всех слоев населения, чтобы избежать усиления цифрового неравенства и несбалансированного распределения доверия.
Исследование продемонстрировало высокую точность прогнозирования склонности к большему доверию к искусственному интеллекту, чем к людям. Модель, разработанная для выявления лиц, предрасположенных к такому предпочтению, достигла средней точности в $0.7961 \pm 0.1127$. Этот результат указывает на возможность не только констатации факта растущего доверия к ИИ, но и определения групп населения, для которых эта тенденция особенно выражена. Способность предсказывать принадлежность к кластеру повышенного доверия к ИИ открывает перспективы для более глубокого понимания социальных факторов, влияющих на формирование доверия в цифровую эпоху, и позволяет прогнозировать потенциальные изменения в восприятии информации.
Импликации и Перспективы Развития Достойного Доверия Искусственного Интеллекта
Полученные результаты имеют существенное значение для разработки более надежных систем искусственного интеллекта, подчеркивая важность прозрачности, объяснимости и справедливости. В частности, акцент на этих принципах позволяет создавать ИИ, решения которого не просто выполняются, но и могут быть поняты и оценены пользователями. Прозрачность предполагает открытость алгоритмов и данных, используемых в процессе принятия решений, что способствует выявлению и устранению потенциальных предвзятостей. Объяснимость, в свою очередь, позволяет пользователям понять, почему ИИ пришел к определенному выводу, повышая доверие и позволяя выявлять ошибки. Наконец, справедливость требует, чтобы системы ИИ не дискриминировали определенные группы населения, обеспечивая равные возможности для всех. Интеграция этих трех компонентов является ключевой для создания ИИ, который не только эффективен, но и этичен и социально ответственен, что является необходимым условием для его широкого и успешного внедрения в различные сферы жизни.
Исследования отсроченного доверия к искусственному интеллекту указывают на необходимость дальнейшего изучения долгосрочных последствий для социальной сплоченности. Ученые предполагают, что широкое распространение систем ИИ, которым изначально доверяют, а затем проверяют, может привести к фрагментации общества, если доверие будет распределено неравномерно. Особое внимание следует уделить потенциальному усилению существующих неравенств, поскольку доступ к технологиям, способствующим критической оценке решений ИИ, может быть ограничен для определенных социальных групп. Дальнейшие исследования должны выявить, как отсроченное доверие влияет на формирование социальных связей и как можно смягчить негативные последствия, обеспечив справедливое и равноправное взаимодействие с искусственным интеллектом для всех слоев населения.
Развитие навыков эпистемической бдительности и критического мышления приобретает первостепенное значение в эпоху все более распространенного искусственного интеллекта. Исследования показывают, что склонность доверять результатам работы ИИ без должной проверки может привести к принятию неверных решений и усилению предвзятости. Поэтому, необходимо разрабатывать образовательные программы и инструменты, способствующие формированию у людей способности оценивать достоверность информации, полученной от ИИ, выявлять потенциальные ошибки и предвзятости, а также критически анализировать представленные данные. Укрепление этих когнитивных навыков является ключевым фактором для обеспечения ответственного внедрения ИИ и максимизации его пользы для общества, позволяя избежать слепого доверия и способствуя осознанному взаимодействию с интеллектуальными системами.
Исследование показывает, что в условиях снижения доверия к человеческим агентам, возникает феномен «отложенного доверия» к искусственному интеллекту. Этот процесс напоминает стремление к пониманию системы с целью ее взлома, не в деструктивном смысле, а в смысле глубокого анализа и использования ее возможностей. Как отмечал Марвин Мински: «Лучший способ понять — это построить». Построение доверия к ИИ, в данном контексте, происходит через осознание его предсказуемости и прозрачности алгоритмов, что позволяет калибровать ожидания и эффективно использовать его в качестве источника информации и поддержки принятия решений. Это подтверждает идею о том, что знание — это реверс-инжиниринг реальности, а доверие — это результат понимания внутренних механизмов системы.
Куда двигаться дальше?
Представленное исследование намекает на любопытную закономерность: перенос доверия, или, точнее, его отсрочку. Когда человеческий фактор перестаёт убеждать, возникает запрос на алгоритмическую уверенность. Это не столько признак веры в искусственный интеллект, сколько симптом разочарования в людях — своего рода эксплуат, когда недостаток одного компенсируется иллюзией надёжности другого. Однако, механизм этой «отложенной веры» остаётся не до конца ясен. Каковы пороги недоверия, после которых разум переключается на машинные советы? И главное — что происходит с критическим мышлением в этот момент?
Следующим шагом представляется детальный анализ контекста. В каких областях жизни этот перенос доверия происходит наиболее активно? Является ли он универсальным, или же зависит от культурных особенностей и индивидуальных предрассудков? Важно понимать, что алгоритмы — это всего лишь отражение тех же человеческих предубеждений, только зашифрованных в коде. Иными словами, можно ли взломать систему, перепрограммировав не искусственный интеллект, а само понятие доверия?
Перспективным представляется изучение долгосрочных последствий этой тенденции. Приведет ли отказ от человеческой экспертизы к деградации навыков принятия решений? Или же искусственный интеллект станет своеобразным костылем, позволяющим нам справляться с возрастающей сложностью мира? Ответ на этот вопрос, возможно, кроется не в совершенствовании алгоритмов, а в переосмыслении самой природы человеческой уверенности.
Оригинал статьи: https://arxiv.org/pdf/2511.16769.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Восполняя пробелы в знаниях: Как языковые модели учатся делать выводы
- Квантовый Монте-Карло: Моделирование рождения электрон-позитронных пар
- Квантовый скачок из Андхра-Прадеш: что это значит?
- Виртуальная примерка без границ: EVTAR учится у образов
- Геометрия на пределе: как алгоритмы оптимизации превосходят языковые модели
- Разгадывая тайны квантового мира: переработка кубитов и шум как тайная приправа?
- Оптимизация партийных запросов: Метод имитации отжига против градиентных подходов
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- Скрытая сложность: Необратимые преобразования в квантовых схемах
2025-11-24 13:00