Искусственный интеллект и ловушки восприятия: как автоматизация влияет на решения патоморфологов

Автор: Денис Аветисян


Новое исследование показывает, что системы поддержки принятия решений на основе ИИ могут приводить к когнитивным искажениям, таким как автоматическое следование рекомендациям и эффект якоря, особенно при нехватке времени.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
В исследовании установлено, что независимые оценки участников и рекомендации искусственного интеллекта влияют на конечные оценки TCP, при этом величина и знак коэффициентов, полученных в результате анализа линейной смешанной модели (Модель 1), отражают направление и силу эффекта привязки к первоначальным оценкам.
В исследовании установлено, что независимые оценки участников и рекомендации искусственного интеллекта влияют на конечные оценки TCP, при этом величина и знак коэффициентов, полученных в результате анализа линейной смешанной модели (Модель 1), отражают направление и силу эффекта привязки к первоначальным оценкам.

В статье анализируются проявления автоматического предвзятости и эффекта якоря в патоморфологии при использовании систем поддержки принятия решений на основе искусственного интеллекта и рассматриваются факторы, влияющие на их возникновение.

Несмотря на очевидный потенциал систем поддержки принятия решений на основе искусственного интеллекта в патоморфологии, их интеграция может приводить к когнитивным искажениям. В исследовании ‘Stuck on Suggestions: Automation Bias, the Anchoring Effect, and the Factors That Shape Them in Computational Pathology’ показано, что использование ИИ в оценке процента опухолевых клеток связано с автоматизацией и эффектом привязки, усугубляющимися при временном давлении. Установлено, что опыт и самооценка специалистов снижают зависимость от ИИ, в то время как высокая уверенность в решениях, принятых с его помощью, наоборот, её усиливает. Как можно минимизировать риски, связанные с когнитивными искажениями при совместной работе человека и искусственного интеллекта в клинической практике?


Когнитивные Искажения в Диагностической Оценке

Оценка процентного содержания опухолевых клеток (TCP) является фундаментальным аспектом патологической диагностики, однако человеческое восприятие этой величины подвержено когнитивным искажениям. Даже опытные патологоанатомы могут демонстрировать систематические ошибки в оценках, обусловленные особенностями визуального восприятия и обработки информации. Например, склонность к «якорению» может приводить к тому, что первоначальная оценка, пусть и приблизительная, будет неоправданно влиять на последующие суждения. Аналогично, эффект «контраста» может приводить к завышенной или заниженной оценке TCP в зависимости от того, какие образцы были проанализированы ранее. Понимание этих когнитивных уязвимостей необходимо для разработки стратегий повышения точности диагностики и, как следствие, улучшения результатов лечения пациентов.

Оценка процента опухолевых клеток (TCP) в патологии подвержена систематическим ошибкам из-за сложности анализа гематоксилин-эозиновых (H&E) препаратов и, особенно, в условиях ограниченного времени. Высокая плотность клеток, вариации в окраске и неоднородность ткани создают значительные когнитивные нагрузки для патоморфолога, что может приводить к переоценке или недооценке TCP. Спешка, вызванная большим объемом работы или необходимостью быстрого принятия решений, усиливает эти трудности, поскольку снижает способность к тщательному визуальному анализу и дифференцировке клеток. В результате, даже опытные специалисты могут допускать ошибки, влияющие на точность диагностики и выбор оптимальной стратегии лечения.

Понимание когнитивных уязвимостей в оценке диагностических данных имеет первостепенное значение для повышения точности диагностики и, как следствие, улучшения исходов лечения пациентов. Исследования показывают, что человеческий фактор, проявляющийся в систематических ошибках восприятия и интерпретации, может существенно влиять на определение критических параметров, например, процентного содержания опухолевых клеток. Игнорирование этих уязвимостей приводит к неточным заключениям, что, в свою очередь, может повлечь за собой неправильные решения о лечении и, в конечном итоге, негативно сказаться на здоровье пациента. Целенаправленное изучение и минимизация влияния когнитивных искажений, посредством оптимизации рабочих процессов, обучения персонала и внедрения вспомогательных технологий, представляется необходимым шагом к повышению качества и надежности патоморфологических исследований.

Внедрение систем автоматизированной диагностики, несмотря на свой потенциал, может привести к феномену автоматизационного предубеждения. Исследования показывают, что патологоанатомы, сталкиваясь со сложными случаями, склонны чрезмерно полагаться на предложения, генерируемые искусственным интеллектом, даже когда визуальный анализ образца указывает на иное. Это происходит из-за тенденции переоценивать точность автоматизированных систем и снижать критическую оценку собственных наблюдений. В результате, внимательное изучение гистологических препаратов может быть отложено на второй план, что увеличивает риск диагностических ошибок, особенно в тех случаях, когда алгоритм ошибается или не учитывает все нюансы конкретного клинического случая. Таким образом, необходимо разрабатывать стратегии, которые способствуют сохранению критического мышления и независимой оценки при использовании инструментов автоматизированной диагностики.

Интерфейс исследования, представленный участникам в ходе оценки <span class="katex-eq" data-katex-display="false">TCP</span>, динамически изменялся с течением времени, создавая ощущение срочности и ограничивая взаимодействие пользователя по истечении таймера, при этом отображались предсказания ИИ, объяснения модели на основе прототипов и визуализации обнаружения клеток.
Интерфейс исследования, представленный участникам в ходе оценки TCP, динамически изменялся с течением времени, создавая ощущение срочности и ограничивая взаимодействие пользователя по истечении таймера, при этом отображались предсказания ИИ, объяснения модели на основе прототипов и визуализации обнаружения клеток.

Искусственный Интеллект и Оценка Временных Параметров

В рамках исследования TCP Estimation Task была использована система поддержки на основе искусственного интеллекта (ИИ) для предоставления прогнозов относительно времени выполнения задач. Данная система генерировала численные оценки, которые представлялись участникам эксперимента перед тем, как они сами формулировали свои собственные прогнозы. Целью внедрения ИИ являлось создание контролируемой среды, в которой можно было бы оценить влияние предложений ИИ на суждения людей, а также выявить степень, в которой участники полагаются на прогнозы системы при формировании собственных оценок времени выполнения задач.

В ходе исследования была проведена систематическая оценка влияния предложений системы искусственного интеллекта на процесс формирования оценок участниками, даже если эти предложения были неточными. Методология включала в себя анализ степени, в которой участники привязывались к значениям, предоставленным ИИ, используя их в качестве отправной точки для собственных оценок. Измерение степени этой «якорящей» зависимости позволило оценить, насколько предвзяты оценки участников в сторону машинных предложений, независимо от их фактической верности. Анализ был направлен на количественную оценку феномена когнитивного искажения, известного как «якорение», в контексте взаимодействия человека и ИИ.

В ходе исследования для исключения влияния индивидуального опыта участников на результаты, был осуществлен строгий контроль за уровнем их профессионального опыта в соответствующей области. Участники были разделены на группы, сбалансированные по количеству лет профессиональной деятельности, что позволило минимизировать систематические различия между группами, получающими и не получающими поддержку со стороны системы искусственного интеллекта. Данная процедура позволила более точно оценить вклад именно AI-поддержки в изменение точности оценок, отделив его от влияния накопленных знаний и навыков участников.

В ходе исследования, наряду с оценкой точности прогнозов, измерялся уровень уверенности участников в принятых решениях. Это позволило провести дифференциацию между влиянием системы поддержки на основе ИИ, основанным на реальном изменении убеждений респондентов, и ситуацией, когда участники просто следовали рекомендациям ИИ без критической оценки. Разделение этих двух механизмов влияния — подлинной веры в предложенное решение и простого соответствия — является ключевым для понимания характера взаимодействия человека и искусственного интеллекта в процессе принятия решений, и для оценки потенциального эффекта “слепого” доверия к автоматизированным системам.

Сравнение коэффициентов линейной смешанной модели показывает, что влияние ИИ-подсказок на оценки зависит от временного давления: при ограниченном времени (Model 1.2) наблюдается более сильное влияние <span class="katex-eq" data-katex-display="false">eta</span> ИИ-подсказки на итоговую оценку, чем при неограниченном времени (Model 1.1), что свидетельствует об эффекте привязки к результатам системы.
Сравнение коэффициентов линейной смешанной модели показывает, что влияние ИИ-подсказок на оценки зависит от временного давления: при ограниченном времени (Model 1.2) наблюдается более сильное влияние eta ИИ-подсказки на итоговую оценку, чем при неограниченном времени (Model 1.1), что свидетельствует об эффекте привязки к результатам системы.

Количественная Оценка Эффекта Якорения и Качества Предсказаний ИИ

Анализ данных показал статистически значимую корреляцию между силой эффекта привязки и показателями качества предсказаний искусственного интеллекта (ИИ), а также величиной ошибок в этих предсказаниях. Более точные предсказания ИИ демонстрировали более слабую степень влияния на итоговые оценки экспертов, в то время как предсказания с большей погрешностью приводили к более выраженному эффекту привязки, что подтверждается результатами линейной смешанной модели. Это указывает на то, что влияние ИИ на оценки экспертов не является постоянной величиной, а изменяется в зависимости от достоверности предоставляемой информации.

Наблюдаемые смещения в оценках целевой вероятности (TCP) участников исследования подтверждают выраженность эффекта привязки даже при незначительных ошибках в прогнозах, предоставляемых искусственным интеллектом. Анализ показал, что даже небольшие неточности в предсказаниях ИИ статистически значимо влияли на субъективные оценки патологов, демонстрируя тенденцию к смещению оценок в направлении предложенных ИИ значений. Это указывает на то, что первоначальная информация, представленная ИИ, служит «якорем», влияющим на последующую оценку, даже если эта информация не является абсолютно достоверной, что подтверждает устойчивость когнитивного искажения привязки.

Статистический анализ, выполненный с использованием линейной смешанной модели, подтвердил статистическую значимость выявленных корреляций между силой эффекта привязки, качеством предсказаний искусственного интеллекта и величиной ошибки предсказаний. Применение данной модели позволило учесть индивидуальные различия между участниками исследования и исключить влияние случайных факторов, обеспечив надежность полученных результатов. Конкретно, анализ показал, что наблюдаемые эффекты не могут быть объяснены случайными колебаниями данных (p < 0.001), что подтверждает реальное влияние предсказаний ИИ на оценки экспертов-патологов.

Количественный анализ показал умеренный эффект привязки (R² ≈ 0.51) рекомендаций искусственного интеллекта на оценки вероятности целевой концентрации (TCP) патологоанатомами, даже в случаях неточности этих рекомендаций. Данный показатель R² свидетельствует о том, что примерно 51% дисперсии в оценках TCP объясняется влиянием рекомендаций ИИ, что указывает на значительное влияние автоматизированной системы на суждения экспертов, несмотря на наличие ошибок в предсказаниях.

Анализ регрессии показал, что коэффициент влияния предсказаний ИИ на итоговые оценки составил 0.44 (p < 0.001), что свидетельствует о значительном влиянии автоматизированной системы на суждения экспертов. При этом, коэффициент влияния базовой (исходной) оценки составил 0.55 (p < 0.001), что указывает на то, что исходные оценки экспертов также оказывают существенное влияние на конечный результат, однако влияние предсказаний ИИ сопоставимо и статистически значимо. Данные результаты демонстрируют, что предсказания ИИ не просто добавляются к исходным оценкам, но и оказывают самостоятельное, значимое влияние на формирование итоговых заключений.

В ходе исследования был зафиксирован уровень автоматической предвзятости в 7%, что отражает частоту случаев, когда консультации патологоанатомов были негативными — то есть, они принимали неверные предложения, сделанные системой искусственного интеллекта. Данный показатель указывает на то, что в 7% случаев эксперты соглашались с ошибочной рекомендацией ИИ, несмотря на потенциальную возможность обнаружения ошибки. Это свидетельствует о наличии влияния автоматизированной системы на процесс принятия решений, даже когда ее суждения не соответствуют правильному ответу.

Влияние на Диагностическую Поддержку и Перспективы Будущих Исследований

Исследования показали, что оценка систем искусственного интеллекта, предназначенных для поддержки принятия решений, не должна ограничиваться исключительно проверкой их точности. Важно учитывать потенциал этих систем к возникновению или усилению когнитивных искажений, таких как эффект привязки. Влияние ИИ на человеческое мышление может приводить к тому, что врачи неосознанно переоценивают предложенные алгоритмом варианты, даже если они не соответствуют всей клинической картине. Таким образом, при разработке и внедрении систем поддержки принятия решений необходимо уделять пристальное внимание не только техническим характеристикам, но и тому, как они взаимодействуют с когнитивными процессами человека, чтобы избежать ухудшения качества диагностики и лечения.

Перспективные исследования направлены на разработку методов смягчения эффекта привязки, возникающего при использовании систем искусственного интеллекта в диагностике. Ученые рассматривают возможность представления прогнозов ИИ с указанием интервалов достоверности, что позволит пользователям оценить степень уверенности системы и избежать слепого следования ее выводам. Кроме того, изучается эффективность подталкивания специалистов к критической оценке результатов, предоставляемых ИИ, путем включения в интерфейс системы вопросов, стимулирующих перепроверку данных и альтернативные интерпретации. Такой подход призван не только повысить точность диагностики, но и способствовать развитию навыков критического мышления у медицинских работников, обеспечивая более взвешенные и обоснованные решения.

Понимание взаимодействия искусственного интеллекта и человеческого познания представляется ключевым фактором при разработке систем, действительно повышающих точность диагностики и улучшающих качество медицинской помощи. Исследования показывают, что люди склонны чрезмерно полагаться на информацию, полученную от ИИ, даже если она ошибочна, что может привести к упущению важных деталей или неправильной интерпретации данных. В связи с этим, при создании вспомогательных систем необходимо учитывать когнитивные особенности человека, такие как предвзятость подтверждения или эффект привязки, и разрабатывать интерфейсы, стимулирующие критическое мышление и независимую оценку информации. Сочетание вычислительной мощности ИИ и способности человека к комплексному анализу и интуиции является наиболее перспективным путем к созданию эффективных и безопасных диагностических инструментов.

Внедрение искусственного интеллекта в медицинскую диагностику требует комплексного подхода, выходящего за рамки оценки исключительно технической эффективности. Успешная реализация зависит от учета взаимодействия систем ИИ с когнитивными процессами человека, включая склонность к когнитивным искажениям и предвзятостям. Для обеспечения надежности и безопасности необходимо не только совершенствовать алгоритмы, но и разрабатывать интерфейсы и стратегии взаимодействия, способствующие критическому осмыслению предложений ИИ и минимизации влияния возможных ошибок. Только учитывая как технологические аспекты, так и человеческий фактор, возможно создать системы искусственного интеллекта, действительно повышающие точность диагностики и улучшающие качество медицинской помощи.

Исследование демонстрирует, что внедрение искусственного интеллекта в патологию не лишено когнитивных искажений. Автоматизация и эффект якорения, выявленные в работе, подчеркивают важность критического мышления при взаимодействии с системами поддержки принятия решений. В условиях ограниченного времени, эти искажения лишь усиливаются, что требует разработки стратегий для их смягчения. Как однажды заметил Анри Пуанкаре: «Наука не состоит из цепи, а из паутины». Это отражает сложность интерпретации данных, особенно когда полагаешься на автоматизированные системы, и необходимость постоянной проверки полученных результатов, чтобы избежать ложных выводов, усугубляемых временным давлением.

Что дальше?

Представленная работа обнажает не столько новые знания, сколько давнюю склонность человеческого разума к упрощению. Автоматизация, призванная избавить от бремени выбора, парадоксальным образом усиливает его, создавая иллюзию объективности, которая лишь маскирует субъективные искажения. Эффект якоря, проявившийся в контексте цифровой патологии, напоминает о том, что даже самые сложные алгоритмы не способны полностью освободить человека от влияния первоначальных впечатлений.

Будущие исследования должны сосредоточиться не на создании все более совершенных систем поддержки принятия решений, а на понимании механизмов, лежащих в основе этих когнитивных искажений. Необходимо изучить, как различные формы представления информации, методы обучения и протоколы взаимодействия могут снизить восприимчивость к автоматизации и эффекту якоря. Простое увеличение точности алгоритма — это лишь решение симптома, а не причины.

В конечном счете, истинный прогресс заключается не в усложнении технологий, а в осознании пределов человеческого познания. Задача не в том, чтобы создать искусственный интеллект, который заменяет врача, а в том, чтобы создать инструменты, которые помогают врачу оставаться человеком — критически мыслящим, рефлексивным и, прежде всего, внимательным к своим собственным предубеждениям. И в этом, возможно, и заключается настоящая сложность.


Оригинал статьи: https://arxiv.org/pdf/2603.11821.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-14 20:49