Искусственный интеллект в тандеме: как люди используют несколько моделей одновременно

Автор: Денис Аветисян


Новое исследование показывает, что пользователи все чаще комбинируют различные ИИ-сервисы, выстраивая между ними сложные рабочие процессы.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу

Работа посвящена изучению стратегий координации между несколькими моделями искусственного интеллекта, используемыми людьми для решения повседневных задач, и необходимости разработки инструментов для поддержки этой практики.

Несмотря на стремительное развитие отдельных мультимодальных больших языковых моделей (MLLM), пользователи все чаще применяют их в комплексе для решения повседневных задач. Исследование, озаглавленное ‘One Is Not Enough: How People Use Multiple AI Models in Everyday Life’, посвящено изучению этой практики и выявляет, что пользователи выстраивают иерархии между моделями и разрабатывают стратегии координации работы между различными платформами. Полученные результаты показывают, что выбор и переключение между моделями обусловлены контекстом задачи, требуемым уровнем усилий и доверием к результатам. Какие инструменты и подходы позволят эффективно поддерживать пользователей в этой новой информационной экосистеме и оптимизировать их взаимодействие с несколькими MLLM одновременно?


Рациональная интеграция мультимодальных моделей: новый ландшафт возможностей

Мультимодальные большие языковые модели (MLLM) стремительно становятся неотъемлемой частью как личных, так и профессиональных рабочих процессов. Эти модели, способные обрабатывать и генерировать информацию на основе различных типов данных — текста, изображений, аудио и видео — открывают беспрецедентные возможности для автоматизации задач, анализа данных и создания контента. Однако, наряду с мощными возможностями, интеграция MLLM сопряжена с определенными сложностями. Необходимость адаптации к различным форматам данных, обеспечение безопасности и конфиденциальности информации, а также решение вопросов, связанных с предвзятостью и этическими нормами, требуют внимательного подхода и разработки эффективных стратегий управления. По мере расширения сферы применения MLLM, понимание и преодоление этих сложностей становится ключевым фактором для успешной интеграции и реализации всего потенциала этих технологий.

Вместо обращения к единственной искусственной интеллект-системе, пользователи всё чаще формируют индивидуальные экосистемы мультимодальных больших языковых моделей (MLLM) для решения широкого спектра задач. Этот подход позволяет гибко подстраивать инструменты под конкретные потребности, комбинируя возможности различных MLLM для достижения оптимальных результатов. Например, одна модель может отвечать за анализ изображений, другая — за генерацию текста, а третья — за перевод, при этом все они взаимодействуют в рамках единого рабочего процесса. Подобная организация требует от пользователя навыков координации и понимания сильных и слабых сторон каждой модели, что открывает новые возможности для повышения эффективности и креативности в самых разных областях.

Исследование организации работы с мультимодальными большими языковыми моделями (MLLM) выявило, что пользователи все чаще создают персонализированные рабочие процессы, объединяя несколько инструментов для решения различных задач. Анализ взаимодействия десяти участников показал, что эффективная координация MLLM требует не просто владения отдельными моделями, но и способности выстраивать четкую логику их последовательного применения. Участники демонстрировали различные стратегии организации, от простых цепочек последовательных запросов до более сложных систем, включающих переключение между моделями в зависимости от типа задачи и желаемого результата. Понимание этих стратегий позволяет оптимизировать работу с MLLM, повышая продуктивность и снижая когнитивную нагрузку на пользователя, что особенно важно в условиях растущей сложности и разнообразия доступных инструментов.

Построение персональных иерархий искусственного интеллекта

Пользователи формируют индивидуальные иерархии для управления своими MLLM (многоязыковыми большими моделями), определяя приоритетность инструментов в зависимости от контекста и поставленных задач. Такая организация позволяет оптимизировать использование ресурсов и повысить эффективность работы с различными моделями. Приоритезация осуществляется на основе специфики решаемых задач — например, модель, хорошо справляющаяся с творческими заданиями, может быть предпочтительнее для личного использования, в то время как для профессиональных задач выбирается модель, оптимизированная для точности и скорости обработки информации. Данный подход позволяет адаптировать систему MLLM к индивидуальным потребностям и рабочему процессу пользователя.

Пользователи могут организовывать иерархии MLLM (мультимодальных больших языковых моделей) двумя основными способами. Подход “Единая первичная модель” предполагает использование одной и той же модели для всех задач и контекстов, упрощая управление и обеспечивая единообразие. Альтернативно, “Раздельная первичная иерархия” предполагает назначение различных моделей для разных сфер деятельности — например, одна модель для личных задач, другая — для рабочих. Такой подход позволяет оптимизировать производительность, используя сильные стороны каждой модели в конкретной области, но требует более сложного управления и переключения между моделями.

Распространенной практикой является создание иерархии, ориентированной на рабочие задачи, где конкретные большие языковые модели (MLLM) выделяются исключительно для профессионального использования. Такой подход позволяет оптимизировать производительность и конфиденциальность данных, поскольку модели, предназначенные для рабочих процессов, могут быть настроены и обучены на специализированных рабочих наборах данных, а также подвергаться более строгому контролю безопасности. Использование отдельных моделей для работы снижает риск утечки конфиденциальной информации, связанной с личными задачами, и гарантирует, что рабочие процессы используют наиболее подходящие и оптимизированные инструменты для повышения эффективности и точности.

Выбор иерархии управления моделями машинного обучения (MLLM) напрямую зависит от индивидуальных предпочтений пользователя в организации рабочего процесса и его оценки сильных сторон каждой конкретной модели. Пользователи, ориентирующиеся на единую модель для всех задач, выбирают подход “Cross-Context Primary”, в то время как разделение моделей по сферам применения — личной и профессиональной — характерно для иерархии “Split-Primary”. Для задач, требующих высокой концентрации и специфических навыков, часто формируется иерархия, ориентированная исключительно на рабочие процессы (“Work-Focused Hierarchy”), где каждая модель оптимизирована для конкретной рабочей нагрузки. Таким образом, структура иерархии является отражением не только функциональных возможностей MLLM, но и индивидуальной стратегии пользователя в управлении информацией и автоматизации задач.

Координация рабочих процессов в мире мульти-LLM

Эффективная координация между различными большими языковыми моделями (БЯМ) является критически важной для успешного выполнения задач, требующих их совместного использования. Это предполагает стратегическое управление взаимодействием между моделями и последовательностью их работы, а не просто последовательное применение. Пользователям необходимо планировать, какая модель лучше всего подходит для конкретного этапа рабочего процесса, и обеспечивать плавный переход между ними. Успешная координация включает в себя не только выбор подходящей модели, но и форматирование входных данных и интерпретацию выходных данных таким образом, чтобы обеспечить совместимость и избежать ошибок, вызванных различиями в архитектуре или обучающих данных. Игнорирование необходимости координации может привести к снижению эффективности, увеличению времени выполнения и ухудшению качества результатов.

В процессе работы с несколькими большими языковыми моделями (БЯМ) широко используются стратегии переключения задач и итеративной доработки запросов. Переключение задач подразумевает последовательное использование различных БЯМ для выполнения отдельных этапов сложной задачи, опираясь на сильные стороны каждой модели — например, одна модель может быть лучше в генерации текста, а другая — в анализе данных. Итеративная доработка запросов, в свою очередь, представляет собой процесс последовательного уточнения запроса к модели, основываясь на полученных ответах, с целью достижения наиболее релевантного и точного результата. Оба подхода позволяют пользователям эффективно использовать возможности различных БЯМ для решения комплексных задач, требующих сочетания разных навыков и компетенций.

В процессе координации работы с несколькими большими языковыми моделями (БЯМ) пользователи сталкиваются с существенными трудностями при поддержании контекста беседы между различными платформами. Исследования показывают, что переключение между БЯМ требует от пользователя явного повторения ключевой информации и перефразирования запросов для обеспечения согласованности ответа. Потеря контекста приводит к необходимости повторного предоставления исходных данных, увеличению времени выполнения задачи и снижению общей эффективности рабочего процесса. Данная проблема усугубляется различиями в обработке входных данных и структуре ответов между разными моделями, что требует от пользователя дополнительных усилий для адаптации запросов и интерпретации результатов.

В рамках исследования стратегий координации работы с несколькими большими языковыми моделями (LLM) был проведен дневниковый анализ и серию полуструктурированных интервью с 10 участниками. В ходе дневникового анализа было собрано 129 записей, в среднем по 12.9 записей на участника, со стандартным отклонением 3.41. Каждое интервью длилось в среднем 34.0 минуты, со стандартным отклонением 3.4 минуты. Целью сбора данных являлось детальное изучение используемых участниками стратегий и выявление возникающих сложностей при переключении между различными LLM и поддержании контекста в процессе работы.

Роль конкретных MLLM в рабочих процессах пользователя

Пользователи все чаще применяют специализированные большие языковые модели (MLLM) для решения конкретных задач, демонстрируя осознанный выбор инструментов в зависимости от их функциональных особенностей. Например, ‘ChatGPT’ активно используется для генерации идей и создания первоначальных набросков текстов, в то время как ‘Claude’ предпочитают для доработки письменных материалов и обеспечения лаконичности изложения. Модель ‘Gemini’, в свою очередь, зарекомендовала себя как эффективный помощник в оперативной обработке информации и анализе изображений. Такой подход позволяет оптимизировать рабочий процесс, используя сильные стороны каждой модели для достижения наилучших результатов в различных областях деятельности.

Эффективность больших языковых моделей (MLLM) не определяется их отдельными возможностями, а зависит от того, насколько органично они встроены в рабочий процесс пользователя. Исследования показывают, что успешное использование таких инструментов, как ChatGPT, Claude и Gemini, требует не просто владения ими, а умения выстраивать иерархию задач и определять, какая модель лучше всего подходит для каждого конкретного этапа работы. Пользователи, как правило, не используют MLLM изолированно, а интегрируют их в существующие процессы, комбинируя возможности разных моделей для достижения наилучшего результата. В результате, ключевым фактором является не только выбор конкретной MLLM, но и продуманная организация рабочего процесса, учитывающая сильные стороны каждого инструмента и обеспечивающая плавный переход между ними.

Исследование выявило, что выбор конкретной большой мультимодальной модели (MLLM) напрямую зависит от поставленной задачи и личных предпочтений пользователя. Наблюдения показали, что для генерации идей и создания черновиков часто отдается предпочтение моделям, демонстрирующим креативность, в то время как для задач, требующих точности и лаконичности изложения, выбираются инструменты, специализирующиеся на четкой и сжатой коммуникации. Пользователи склонны адаптировать свой выбор MLLM, основываясь на индивидуальном опыте и субъективной оценке качества результатов, что приводит к формированию персонализированных рабочих процессов, в которых каждая модель выполняет определенную функцию, соответствующую ее сильным сторонам и предпочтениям пользователя.

Пользователи не просто используют различные большие языковые модели (MLLM), но и постоянно, пусть и неосознанно, проводят своего рода “бенчмаркинг” их производительности. В процессе работы с такими инструментами, как ChatGPT, Claude или Gemini, пользователи интуитивно оценивают, какая модель лучше справляется с конкретными задачами — будь то генерация идей, редактирование текста или анализ изображений. Эта неявная оценка приводит к формированию личной иерархии инструментов, где определенные MLLM становятся предпочтительными для определенных типов работ. В результате, пользователи адаптируют свой рабочий процесс, используя наиболее эффективные модели для конкретных целей, постоянно корректируя свои предпочтения на основе полученного опыта и результатов.

Исследование показывает, что люди не просто используют отдельные модели искусственного интеллекта, но и выстраивают сложные иерархии между ними, координируя задачи и оценивая надежность каждого инструмента. Это подтверждает мысль Роберта Тарьяна: «Простота — высшая степень совершенства». Пользователи стремятся к ясности в организации рабочих процессов, выбирая наиболее эффективные комбинации моделей для решения конкретных задач. Стремление к минимизации когнитивной нагрузки и оптимизации взаимодействия с искусственным интеллектом — ключевой аспект современной информационной экологии, где каждый инструмент должен быть понятен и предсказуем в своей функции. Умение находить оптимальную простоту в сложных системах — залог успешного взаимодействия человека и искусственного интеллекта.

Куда Ведет Этот Лабиринт?

Исследование показывает, что пользователь не довольствуется одним инструментом, а создает сложную иерархию из них. Это не просто вопрос удобства, но и фундаментальное признание ограниченности каждой отдельной модели. Попытки создать универсальный искусственный интеллект, способный решить все задачи, кажутся всё более наивными. Гораздо продуктивнее изучить, как человек оркестрирует взаимодействие между специализированными системами, компенсируя недостатки одной, сильными сторонами другой.

Необходимо признать, что существующие интерфейсы и инструменты поддержки рабочих процессов не приспособлены к этой новой реальности. Требуется разработка систем, позволяющих пользователю не только запускать несколько моделей параллельно, но и управлять потоком информации между ними, калибровать доверие к разным источникам и разрешать возникающие противоречия. Простота использования здесь — не прихоть, а необходимое условие для эффективной работы.

Будущие исследования должны сосредоточиться не на совершенствовании отдельных моделей, а на понимании когнитивных процессов, лежащих в основе координации между ними. Как человек формирует ментальную карту доступных инструментов? Как он оценивает надежность и релевантность получаемой информации? Ответы на эти вопросы позволят создать действительно полезные системы поддержки принятия решений, а не просто сложные игрушки.


Оригинал статьи: https://arxiv.org/pdf/2603.26107.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-30 05:37