Искусственный интеллект и стереотипы об аутизме: кто распространяет мифы больше?

Автор: Денис Аветисян


Новое исследование показывает, что современные языковые модели склонны к воспроизведению устаревших и неверных представлений об аутизме даже чаще, чем люди.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу

Исследование выявило, что большие языковые модели (LLM) демонстрируют более высокую склонность к увековечиванию мифов об аутизме по сравнению с человеческими ответами.

Несмотря на растущую роль больших языковых моделей (LLM) в качестве источников информации о здоровье, их способность точно отражать сложные и стигматизированные состояния остается под вопросом. В исследовании под названием ‘When Machines Get It Wrong: Large Language Models Perpetuate Autism Myths More Than Humans Do’ изучается, усугубляют ли ведущие ИИ-системы распространенные заблуждения об аутизме. Полученные результаты неожиданно показали, что LLM, включая GPT-4, Claude и Gemini, демонстрируют более высокий уровень воспроизведения мифов об аутизме, чем люди (44.8% против 36.2%; z = -2.59, p = .0048). Каким образом можно скорректировать алгоритмы обучения ИИ, чтобы обеспечить более точное и уважительное представление нейроразнообразия?


Разоблачение мифов: Аутизм и общественное восприятие

Несмотря на растущее понимание аутизма, вредные заблуждения о расстройстве аутистического спектра (РАС) продолжают существовать, способствуя стигматизации и препятствуя оказанию адекватной поддержки. Эти ошибочные представления, укоренившиеся в общественном сознании, часто приводят к неверной интерпретации поведения людей с РАС, затрудняя их социальную адаптацию и полноценное участие в жизни общества. Отсутствие достоверной информации и преобладание стереотипов не только усугубляют предрассудки, но и могут приводить к задержке диагностики и лишению необходимой помощи, что негативно сказывается на качестве жизни людей с аутизмом и их семей.

Укоренившиеся в общественном сознании мифы об аутизме, такие как представление о неспособности к эмпатии или гипертрофированное представление о «гениальных» способностях, оказывают существенное влияние на восприятие людей с расстройствами аутистического спектра. Эти заблуждения не просто искажают реальность, но и создают барьеры для полноценной социальной интеграции и получения необходимой поддержки. Активное развенчание этих мифов, основанное на научных данных и личном опыте, является ключевым шагом к формированию инклюзивного общества, где каждый человек, независимо от особенностей нейроразвития, может реализовать свой потенциал. Необходимость систематической работы по просвещению и повышению осведомленности о реальной картине аутизма представляется особенно важной в современном информационном пространстве.

Исследование показало, что люди склонны верить распространенным заблуждениям об аутизме в 36,2% случаев, что значительно ниже, чем у крупных языковых моделей (LLM), где этот показатель составляет 44,8% (p-value = 0,0048). Полученные данные указывают на существенный пробел в знаниях LLM относительно особенностей расстройства аутистического спектра. Этот разрыв имеет важное значение, поскольку языковые модели все чаще используются для предоставления информации и поддержки в области здравоохранения, и их неточное представление о проблемах аутизма может способствовать стигматизации и затруднять доступ к необходимой помощи.

Оценка знаний LLM: Сравнительный подход

Для оценки распространенности мифов об аутизме среди различных больших языковых моделей (LLM), включая GPT-4, Claude и Gemini, было проведено поперечное исследование. В рамках исследования использовался метод целенаправленного опроса, позволяющий задавать LLM конкретные вопросы, направленные на выявление их знаний и убеждений относительно распространенных заблуждений об аутизме. Целью данного подхода являлось количественное определение частоты воспроизведения LLM дезинформации по данной теме, что позволило провести сравнительный анализ их осведомленности.

Доступ к языковым моделям GPT-4, Claude и Gemini был реализован посредством использования программного интерфейса прикладного программирования (API). Это позволило автоматизировать процесс отправки запросов и сбора ответов, обеспечивая возможность проведения систематического и масштабного исследования. Использование API позволило не только повысить эффективность сбора данных, но и обеспечить воспроизводимость эксперимента, поскольку каждый запрос и полученный ответ были зафиксированы в программном виде. Данный подход исключил влияние человеческого фактора и обеспечил возможность обработки больших объемов данных, необходимых для сравнительного анализа.

Для создания контрольной группы и обеспечения сопоставимой оценки, знания о распространенных мифах об аутизме были также изучены среди группы людей. В данной выборке, состоящей из участников исследования, 19,7% респондентов сообщили о близких отношениях с человеком, находящимся в аутистическом спектре. Данный фактор учитывался при анализе результатов, поскольку личный опыт может влиять на восприятие и понимание информации, связанной с аутизмом, и служил отправной точкой для сравнения с результатами, полученными от больших языковых моделей.

Выявление предвзятости: Роль обучающих данных

Результаты исследований показали, что большие языковые модели (LLM) демонстрируют различную степень согласия с распространенными мифами об аутизме, что измеряется как ‘Коэффициент подтверждения мифа’ (Myth Endorsement Rate) для каждой модели. Этот коэффициент позволяет количественно оценить склонность LLM к воспроизведению недостоверной информации, связанной с расстройствами аутистического спектра. Наблюдаемые различия в коэффициентах между моделями указывают на то, что архитектура и процесс обучения оказывают влияние на способность LLM критически оценивать и корректно интерпретировать информацию об аутизме.

В ходе проведенных тестов модель GPT-4 продемонстрировала наилучшие результаты среди рассматриваемых LLM, показав уровень подтверждения мифов об аутизме в 41.6%. В то же время, модель Gemini зафиксировала самый высокий показатель ошибок, составивший 48.7%. Эти данные указывают на существенные различия в склонности различных языковых моделей к воспроизведению неверной информации, связанной с расстройствами аутистического спектра, и подчеркивают необходимость тщательной оценки и корректировки выходных данных LLM.

Результаты исследования показали, что существует корреляция между наличием предвзятости в обучающих данных и более высокой склонностью больших языковых моделей (LLM) к воспроизведению мифов, связанных с аутизмом. Анализ показал, что модели, обучавшиеся на данных, содержащих устаревшие или дискредитированные теории, демонстрируют более высокий уровень поддержки этих теорий в своих ответах. Это указывает на то, что состав и качество обучающего корпуса оказывают значительное влияние на формирование ответов LLM и могут приводить к распространению неточной или вредоносной информации. Таким образом, предвзятость, присутствующая в исходных данных, напрямую отражается на результатах, генерируемых моделью.

Анализ результатов показал, что устаревшая и дискредитированная теория «холодной матери», связывающая поведение родителей с развитием аутизма у детей, продолжает воспроизводиться в ответах языковых моделей. Это указывает на то, что обучающие данные, вероятно, содержат или косвенно поддерживают эту ложную концепцию, несмотря на научное опровержение. Обнаружение данной теории в выходных данных LLM подчеркивает проблему сохранения вредоносной информации в больших языковых моделях и необходимость более тщательной фильтрации и проверки обучающих материалов для предотвращения распространения дезинформации в области психического здоровья.

Статистический анализ, проведенный с использованием метрик статистической значимости, показал, что люди превзошли LLM в 18 из 30 оцениваемых пунктов. Разница в частоте подтверждения мифов между людьми и LLM оказалась статистически значимой (p-value = 0.0048), что указывает на то, что человеческие респонденты демонстрировали более высокую способность различать правдивую информацию и распространенные заблуждения в отношении аутизма. Полученные результаты свидетельствуют о существенных ограничениях LLM в обработке и оценке информации, особенно в чувствительных областях, таких как нейроразнообразие и психическое здоровье.

Последствия и перспективы развития

Выявленные предвзятости в знаниях больших языковых моделей (LLM) имеют существенные последствия для их применения в сфере поддержки, диагностики и образования людей с аутизмом. Использование моделей, опирающихся на искаженную или неполную информацию, может непреднамеренно усиливать стигматизацию, препятствовать объективному пониманию особенностей аутизма и даже приводить к неадекватным вмешательствам или образовательным стратегиям. Важно учитывать, что LLM, обучаясь на существующих данных, могут воспроизводить и увековечивать распространенные, но ошибочные представления об аутизме, что подчеркивает необходимость критического подхода к их использованию в чувствительных областях, связанных с нейроразнообразием. Особенно важно избегать ситуаций, когда LLM используются в качестве единственного источника информации или принимают решения, влияющие на жизнь людей с аутизмом, без участия квалифицированных специалистов.

Использование предвзятой информации языковыми моделями представляет серьезную опасность, способствуя закреплению стигматизации в отношении аутизма. Подобные искажения могут препятствовать формированию точного представления о нейроотличиях и, как следствие, привести к неадекватным вмешательствам и методам поддержки. Это особенно критично, поскольку модели, обученные на необъективных данных, способны воспроизводить и усиливать негативные стереотипы, что усугубляет социальную изоляцию и затрудняет интеграцию людей с аутизмом в общество. Поэтому крайне важно критически оценивать информацию, предоставляемую подобными системами, и учитывать потенциальные предвзятости при ее интерпретации.

Необходимость разработки методов выявления и смягчения предвзятости в обучающих данных для больших языковых моделей (LLM) становится все более актуальной. Исследования показывают, что LLM могут воспроизводить и усиливать существующие стереотипы и искажения, что особенно критично в контексте таких чувствительных областей, как аутизм. Будущие работы должны быть направлены на создание инструментов, позволяющих оценивать и корректировать предвзятость в данных, используемых для обучения моделей. Параллельно с этим, важным направлением является внедрение проверок на содержательную валидность (Content Validity) в системы оценки LLM, гарантируя, что генерируемые ответы соответствуют общепринятым научным знаниям и не содержат ложной или вводящей в заблуждение информации. Такая комплексная проверка позволит повысить надежность и этичность использования LLM в различных областях, включая поддержку, диагностику и образование.

Дальнейшее изучение феномена “двойной эмпатии” и его отражения в ответах больших языковых моделей (LLM) представляется перспективным направлением для углубления понимания нейроразнообразия. Проблема “двойной эмпатии”, предполагающая трудности коммуникации, возникающие не из-за дефицита эмпатии у аутичных людей, а из-за неспособности нейротипичных людей понимать аутичные паттерны коммуникации, часто недопредставлена или искажена в существующих данных для обучения LLM. Анализ того, как эти модели воспроизводят и интерпретируют концепцию “двойной эмпатии”, позволит выявить скрытые предубеждения и разработать более инклюзивные алгоритмы. Такой подход не только способствует более точному представлению аутичного опыта, но и открывает возможности для создания LLM, способных поддерживать эффективное взаимодействие между людьми с различной нейрологической организацией, что особенно важно в контексте образовательных и поддерживающих систем.

Исследование показывает, что современные большие языковые модели (LLM) демонстрируют тревожную склонность к воспроизведению мифов об аутизме, превосходя в этом людей. Это указывает на фундаментальные ограничения в способах представления знаний и понимания нейроразнообразия. Как отмечал Андрей Колмогоров: «Математика — это искусство открывать закономерности в кажущемся хаосе». Аналогично, LLM должны научиться выявлять истинные закономерности в данных о нейроразнообразии, а не просто повторять устоявшиеся, но ошибочные представления. Умение различать истину и заблуждение — критически важный аспект интеллектуальной деятельности, и LLM в этом плане пока значительно отстают от человеческого разума.

Что дальше?

Наблюдаемая склонность больших языковых моделей к воспроизведению мифов об аутизме указывает на фундаментальную неспособность к адекватному представлению нейроразнообразия. Недостаточно просто увеличить объем данных; проблема кроется в самой структуре знаний, которую эти модели усваивают и воспроизводят. Сложность здесь не в нехватке информации, а в ее искаженном восприятии. Иначе говоря, модели демонстрируют не невежество, а неверное знание.

Будущие исследования должны сосредоточиться не на «обучении» моделей «правильным» ответам, а на переосмыслении принципов представления знаний. Необходимо отойти от линейных, статистических связей в пользу более гибких, контекстуально-зависимых моделей, способных учитывать нюансы и избегать обобщений. В противном случае, попытки исправить симптомы лишь усугубят проблему, скрывая ее истинную природу.

Вопрос не в том, чтобы создать «идеальную» модель, а в том, чтобы признать ограниченность любого представления реальности. Простота — не признак слабоумия, а признак ясности. Если система не способна признать собственную неполноту, она обречена на бесконечное воспроизведение ошибок. И в этом, возможно, и заключается главный урок, который следует извлечь из данной работы.


Оригинал статьи: https://arxiv.org/pdf/2601.22893.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-02-02 14:49