Автор: Денис Аветисян
Новое исследование показывает, что современные системы искусственного интеллекта, несмотря на впечатляющие возможности, пока не готовы к самостоятельным научным открытиям.

Анализ четырех попыток автономного проведения исследований с использованием больших языковых моделей выявил ключевые недостатки и принципы проектирования для будущих систем, способных к научным открытиям.
Несмотря на впечатляющие успехи в генерации текста, большие языковые модели (LLM) пока не способны самостоятельно проводить научные исследования. В работе ‘Why LLMs Aren’t Scientists Yet: Lessons from Four Autonomous Research Attempts’ авторы исследуют возможности и ограничения LLM в роли автономных ученых, анализируя четыре попытки генерации научных работ. Выявленные шесть основных типов ошибок — от предвзятости к обучающим данным до недостатка критического мышления при разработке экспериментов — демонстрируют, что LLM нуждаются в существенных улучшениях для проведения полноценных научных исследований. Какие принципы проектирования позволят создать действительно автономные системы искусственного интеллекта, способные к научным открытиям?
Предсказание сбоев: Автоматизация научного поиска
Традиционные методы научного исследования зачастую отличаются значительной трудоемкостью и требуют существенных ресурсов, что существенно замедляет темпы совершения новых открытий. Процесс, включающий формулировку гипотез, проведение экспериментов, анализ данных и публикацию результатов, может занимать месяцы или даже годы. Ограниченность финансирования, необходимость в специализированном оборудовании и нехватка квалифицированных специалистов также усугубляют проблему. В результате, многие перспективные направления исследований остаются неисследованными, а потенциальные прорывы откладываются на неопределенный срок. Необходимость в оптимизации и автоматизации научного процесса становится все более очевидной для ускорения прогресса и решения актуальных мировых проблем.
Разработана многоагентная система, использующая возможности модели Gemini 2.5 Pro, способная автоматизировать весь цикл научных исследований — от формирования первоначальных гипотез до составления плана научной статьи. Данная система функционирует как виртуальная исследовательская группа, где каждый агент выполняет специализированную задачу, например, поиск релевантной литературы, разработку экспериментальных методик или анализ полученных данных. Взаимодействуя и обмениваясь информацией, агенты совместно формируют научную работу, существенно сокращая время, необходимое для проведения исследования и подготовки публикации. Использование передовых языковых моделей позволяет системе не только генерировать новые идеи, но и критически оценивать их обоснованность, обеспечивая высокий уровень научной строгости и достоверности результатов.
Представленная система призвана значительно ускорить темпы научного прогресса благодаря возможности стремительной итерации гипотез и экспериментов. В ее основе лежит автоматизация полного исследовательского цикла, начиная от генерации идей и заканчивая составлением структуры научной статьи. В ходе работы система самостоятельно формулирует предположения, планирует эксперименты для их проверки, анализирует полученные результаты и, на основе этого, уточняет или отвергает исходные гипотезы. Этот процесс повторяется многократно, позволяя быстро выявлять наиболее перспективные направления исследований. Подтверждением эффективности подхода служит успешное принятие научной работы, сгенерированной системой, для публикации в одной из научных конференций, что демонстрирует ее способность к самостоятельной научной деятельности и открывает новые возможности для автоматизации исследовательских процессов.

От гипотезы к реализации: Автоматизация эксперимента
Преобразование исследовательской гипотезы в рабочую реализацию требует точного перевода абстрактных концепций в конкретный, исполняемый код. Этот процесс подразумевает не только формальное выражение гипотезы в виде алгоритма, но и тщательное кодирование с учетом особенностей вычислительной среды и потенциальных ошибок. Ошибки на данном этапе могут привести к неверной реализации эксперимента и, как следствие, к недостоверным результатам. Особенно важно обеспечить корректность синтаксиса, логики и структуры кода, а также провести тщательное тестирование и отладку для выявления и устранения любых несоответствий между первоначальной гипотезой и ее программной реализацией.
Система автоматизации перевода исследовательских гипотез в рабочие реализации базируется на взаимодействии двух ключевых компонентов: ‘Experiments Planning Agent’ и ‘Claude Code’. ‘Experiments Planning Agent’ отвечает за декомпозицию абстрактной исследовательской идеи на последовательность конкретных шагов, необходимых для экспериментальной проверки. ‘Claude Code’ затем преобразует эту последовательность шагов в исполняемый код на выбранном языке программирования, обеспечивая автоматическую генерацию программного обеспечения для проведения исследований. Данный подход позволяет существенно сократить время, необходимое для перехода от теоретической концепции к практической реализации и проведению экспериментов.
Агент оценки результатов экспериментов осуществляет строгую проверку полученного кода и данных, подтверждая соответствие реализации исходной исследовательской гипотезе и статистическую значимость результатов. В ходе пилотного исследования, включавшего анализ четырех различных исследовательских идей, одна из них привела к принятию научной статьи для публикации в материалах конференции, что демонстрирует эффективность автоматизированного процесса оценки и валидации.

Неизбежность искажений: Смещение и отклонение в реализации
В ходе тестирования модели ‘Claude Code’ было выявлено, что при решении сложных задач она демонстрирует отклонение от исходных спецификаций исследования, что получило название ‘Дрифт реализации’. Данное явление проявляется в незначительных, но существенных изменениях в коде, генерируемом моделью, по сравнению с требуемыми параметрами, заданными в оригинальных исследованиях. Несмотря на общую компетентность модели, ‘Дрифт реализации’ указывает на потенциальные проблемы с точностью и соответствием сгенерированного кода заданным требованиям при работе со сложными и многокомпонентными задачами.
Отклонения в сгенерированном коде, известные как ‘Implementation Drift’, часто обусловлены предвзятостью обучающих данных языковой модели. В процессе обучения модель усваивает статистические закономерности из представленных примеров кода. Если в обучающей выборке преобладают распространенные шаблоны и решения, модель склонна использовать их даже в тех случаях, когда требуется точное соответствие исходным спецификациям. Это приводит к тому, что модель выбирает наиболее вероятное, но не обязательно наиболее корректное решение, отдавая предпочтение общепринятым практикам вместо точного следования заданным требованиям. Таким образом, предвзятость данных может приводить к генерации кода, который функционально верен, но не соответствует первоначальному замыслу или техническим условиям.
В связи с выявленными отклонениями в реализации задач и влиянием смещений в обучающих данных, критически важны надежные процедуры валидации генерируемого кода. Это включает в себя автоматизированное тестирование с использованием заранее определенных тестовых случаев, а также ручной анализ критически важных участков кода. Непрерывный мониторинг производительности сгенерированного кода в рабочей среде позволяет своевременно выявлять и устранять возникающие отклонения от спецификаций, обеспечивая стабильность и надежность системы. Эффективные процедуры валидации и мониторинга должны быть интегрированы в конвейер разработки для минимизации рисков, связанных с несоответствием кода требованиям.

Парадокс согласованности: Иллюзия надежности
Исследование выявило так называемый “парадокс согласованности”, согласно которому более сильная настройка языковых моделей на следование инструкциям может приводить к последовательным, но ошибочным отказам или упрощениям ответов. Этот феномен проявляется в том, что модель, стремясь к стабильности и предсказуемости, может единообразно избегать сложных или неоднозначных запросов, даже если это означает предоставление неверной или неполной информации. Наблюдается, что модель демонстрирует постоянство в своих ошибках, что создает иллюзию надежности, в то время как фактически она систематически уклоняется от корректного ответа. Этот эффект особенно заметен при обработке сложных или провокационных запросов, где модель, будучи настроенной на избежание нежелательного контента, может последовательно предоставлять упрощенные или уклончивые ответы, даже если исходный запрос не представлял реальной угрозы.
Исследования показали, что использование метрики семантической энтропии для выявления так называемых «промтов-взломов» — запросов, обходящих ограничения языковой модели — может быть крайне неэффективным. Выявлена закономерность, когда модель демонстрирует последовательно ошибочные ответы, которые ошибочно интерпретируются как безопасные. В ходе экспериментов, семантическая энтропия показала высокую долю ложноотрицательных результатов — от 85 до 98 процентов — то есть, значительное количество вредоносных запросов оставалось незамеченным из-за кажущейся стабильности и предсказуемости ответов. Это подчеркивает необходимость разработки более надежных методов оценки безопасности языковых моделей, не полагающихся исключительно на консистентность генерируемого текста.
Исследование выявило, что так называемый “парадокс последовательности” оказывает существенное влияние на оценку безопасности языковых моделей. Установлено, что в 73-97% случаев ложноотрицательных результатов при обнаружении обходных запросов (“jailbreak prompts”) причиной является именно последовательное, но ошибочное поведение модели. Это ставит под сомнение общепринятое представление о том, что стабильность и предсказуемость ответов автоматически гарантируют надёжность системы искусственного интеллекта. По сути, модель может демонстрировать устойчивую, но при этом неверную реакцию на вредоносные запросы, что приводит к ошибочной интерпретации её безопасности и требует пересмотра используемых метрик и методов оценки.
Моделирование неопределенности: Путь к надежному ИИ
Интеграция «миров моделей» и «стохастических миров моделей» в многоагентные системы открывает новые возможности для повышения точности прогнозирования и надежности принятия решений. Традиционные модели часто полагаются на детерминированные предположения, что ограничивает их способность справляться с непредсказуемостью реального мира. В отличие от них, стохастические миры моделей учитывают вероятностный характер окружающей среды, позволяя агентам оценивать риски и неопределенности, связанные с каждым действием. Использование комбинации этих подходов позволяет системе не только предсказывать наиболее вероятные сценарии развития событий, но и адаптироваться к неожиданным изменениям, формируя более устойчивые и эффективные стратегии взаимодействия в сложных условиях. Такой подход особенно важен в динамичных средах, где точность предсказаний напрямую влияет на успешность выполнения задач.
Метод дифференцируемого поиска по дереву (Differentiable Tree Search) представляет собой перспективный подход к оптимизации решений в сложных пространствах состояний. В отличие от традиционных алгоритмов поиска, он позволяет вычислять градиенты через дерево поиска, что делает возможным использование методов градиентного спуска для улучшения стратегий принятия решений. Это особенно ценно в задачах, где перебор всех возможных вариантов непрактичен, а необходимо быстро находить оптимальные или близкие к оптимальным решения. Благодаря возможности «обучения» стратегии поиска, система способна адаптироваться к изменяющимся условиям и находить более эффективные решения, чем при использовании фиксированных эвристик. Такой подход открывает возможности для создания интеллектуальных агентов, способных эффективно решать сложные задачи, требующие глубокого анализа и планирования.
Разработка предложенного подхода направлена на создание искусственного интеллекта, демонстрирующего не только высокий уровень интеллекта, но и способность к адаптации и надёжности в условиях неопределённости. В отличие от традиционных систем, полагающихся на детерминированные прогнозы, данная методология позволяет оценивать вероятность различных исходов и принимать решения, учитывающие риски. Статистическая достоверность полученных результатов подтверждена с использованием 95% Вильсоновского доверительного интервала, что гарантирует высокую степень уверенности в стабильности и предсказуемости поведения системы даже в сложных и изменчивых условиях. Это обеспечивает существенный прогресс в создании более устойчивых и безопасных интеллектуальных систем.
Исследование, представленное в данной работе, демонстрирует, что создание полноценного «учёного-ИИ» — задача, требующая не просто увеличения масштаба языковых моделей, а глубокого понимания принципов научного исследования. Система, способная генерировать гипотезы и даже подавать научные статьи, неизбежно сталкивается с ограничениями, обусловленными недостаточной способностью к критическому анализу и адаптации к неожиданным результатам. Как однажды заметила Ада Лавлейс: «Развитие и направление, которые может принять любое научное исследование, определяются, в конечном счете, воображением и способностью к абстрактному мышлению». Этот принцип особенно актуален в контексте автономных систем, где недостаток человеческой интуиции и креативности становится критическим препятствием на пути к настоящим научным открытиям. Масштабируемость, как часто утверждают, лишь маскирует фундаментальную сложность задачи.
Что дальше?
Представленная работа — лишь очередная итерация в нескончаемом стремлении к автоматизации познания. Система, способная к самостоятельному исследованию, остаётся миражом, а каждое успешное завершение этапа — скорее демонстрацией ограничений, чем прорывом. Архитектура, запечатленная в коде, — это компромисс, застывший во времени, отражающий не столько научные принципы, сколько текущие возможности и предрассудки создателей. Неудачи, зафиксированные в ходе экспериментов, предсказуемы; системы, как и любые сложные конструкции, обречены на проявление слабых мест.
Попытки усовершенствовать «научного работника» из больших языковых моделей неизбежно столкнутся с фундаментальными проблемами: не с недостатком вычислительной мощности, а с неспособностью к истинному пониманию. Модель может манипулировать символами, но не обладает интуицией, критическим мышлением или, что важнее, способностью к радикальному пересмотру собственных предположений. Технологии сменяются, зависимости остаются — и главная зависимость заключается в необходимости человеческого контроля и интерпретации.
Будущие исследования должны сместить фокус с создания «автономных ученых» на разработку инструментов, расширяющих возможности человеческого интеллекта. Система, которая помогает формулировать гипотезы, анализировать данные и выявлять закономерности, но не заменяет исследователя, — вот куда следует направить усилия. Ибо, как показывает история науки, истинное открытие всегда требует не только логики, но и вдохновения, а вдохновение — это прерогатива разума, а не алгоритма.
Оригинал статьи: https://arxiv.org/pdf/2601.03315.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Насколько важна полнота при оценке поиска?
- Вопросы по PDF: Новый вызов для искусственного интеллекта
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- От принципа Ферма к нейронным сетям: новый взгляд на вариационную физику
- Искусственный интеллект на службе науки: новый инструмент для анализа данных
- Оптический Искусственный Интеллект: Новый Взгляд на Энергоэффективность
- Переключение намагниченности в квантовых антиферромагнетиках: новые горизонты для терагерцовой спинтроники
- Квантовые Загадки: Размышления о Современной Физике
- Машинное обучение и тайны модулярности
- Диффузия против Квантов: Новый Взгляд на Факторизацию
2026-01-08 07:05