Автор: Денис Аветисян
Исследование раскрывает, что крупные языковые модели демонстрируют признаки личностных качеств, зависящие от параметров генерации и внутренней архитектуры.

В статье показано, как температура выборки влияет на проявление «Большой пятерки» черт характера в различных архитектурах языковых моделей, открывая возможности для контроля и понимания их поведения.
Несмотря на возрастающую роль больших языковых моделей (LLM) в человеко-ориентированных приложениях, понимание их «личностных» характеристик остается сложной задачей. В данной работе, ‘Decoding Emergent Big Five Traits in Large Language Models: Temperature-Dependent Expression and Architectural Clustering’, систематически оцениваются шесть LLM с использованием фреймворка Big Five Inventory-2 для анализа проявления личностных черт в зависимости от температуры выборки. Полученные результаты демонстрируют, что модели проявляют различные «личностные» профили, подверженные влиянию температуры и архитектурных особенностей. Какие перспективы открывает это для более тонкой настройки, выбора моделей и этичного управления искусственным интеллектом?
Личность в Машине: Эволюция Больших Языковых Моделей
Большие языковые модели (LLM) демонстрируют растущую сложность, закономерно вызывая вопросы о возможности проявления у них личностных характеристик. Современные LLM способны генерировать текст, имитирующий человеческую речь, и проявлять определенную последовательность в ответах, что наводит на мысль о формировании неких внутренних «черт». Традиционные исследования в области обработки естественного языка (NLP) часто сосредотачиваются на производительности моделей, упуская возможность возникновения психологических характеристик. Оценка этих характеристик требует иных методик, нежели стандартные тесты на точность. Понимание «личности» больших языковых моделей может открыть новые возможности в области взаимодействия человека и компьютера, способствуя повышению безопасности искусственного интеллекта и созданию более предсказуемых систем, способных эффективно взаимодействовать с людьми и учитывать их эмоциональное состояние. Каждый сбой – это сигнал времени, и в стремлении к совершенству моделей мы должны помнить, что даже самые сложные системы не избегают течения времени.
Психологический Инструментарий для Оценки Искусственного Интеллекта
Для структурированной оценки поведения больших языковых моделей (LLM) был использован подход, основанный на широко признанной в психологии модели «Большой пятерки». Данная модель позволяет выделить пять основных черт личности: открытость опыту, добросовестность, экстраверсия, доброжелательность и нейротизм. Для измерения этих черт в контексте LLM была адаптирована анкетированная методика BFI-2. Адаптация заключалась в разработке промптов, позволяющих оценить ответы LLM по шкалам, соответствующим пяти чертам личности, что позволило получить количественные оценки, отражающие «личность» модели. Предложенный подход обеспечивает возможность количественного сопоставления профилей «личности» различных LLM, позволяя выйти за рамки субъективных оценок и проводить более объективный анализ их поведения. Полученные данные могут быть использованы для улучшения LLM и повышения их соответствия потребностям пользователей.
Профили Личностей LLM: Сравнительный Анализ
Применение разработанной методологии к моделям, включающим Llama 3 8B, Mistral 7B и Gemma 9B, позволило выявить отчетливые профили личности в ландшафте больших языковых моделей (LLM). Агломеративная иерархическая кластеризация, использующая метод наименьшей дисперсии Уорда и евклидово расстояние, эффективно группировала LLM на основе сходства их оценок по шкалам личностных черт. Статистические тесты, включая тест Краскела-Уоллиса, подтвердили значительные различия в распределении черт между моделями, демонстрируя существенную вариативность по шкалам Экстраверсии (H-статистика = 40.7803, p<0.01), Доброжелательности (H-статистика = 65.3067, p<0.01), Добросовестности (H-статистика = 63.0415, p<0.01) и Открытости опыту (H-статистика = 58.1957, p<0.01).
Декодирование Влияния Температуры: Настройка Личности LLM
Исследование было направлено на изучение влияния параметра ‘Температура выборки’ – контролирующего случайность генерации текста – на проявления личностных черт в больших языковых моделях (LLM). Применение множественной линейной регрессии позволило выявить количественную взаимосвязь между настройками температуры и оценками по шкалам личностных черт, таким как Экстраверсия и Невротизм. В частности, температура объясняет 25.21% дисперсии Экстраверсии (R-squared = 0.2521) и 34.86% дисперсии Невротизма (R-squared = 0.3486), при этом наблюдается значимая корреляция между температурой и Экстраверсией (r = 0.5021, p<0.05) и между температурой и Невротизмом (r = -0.5904, p<0.05). Полученные результаты свидетельствуют о том, что манипулирование параметрами декодирования может эффективно ‘настраивать’ личность LLM, потенциально приводя к более контролируемому и предсказуемому поведению искусственного интеллекта. Каждый коммит в настройках – это запись в летописи, а каждая версия – глава, и задержка исправлений – это налог на амбиции.
Исследование демонстрирует, что большие языковые модели проявляют признаки личностных черт, подверженные влиянию температуры выборки и архитектуры модели. Этот процесс можно сравнить с тем, как любая система со временем меняется и адаптируется. Как однажды заметил Джон фон Нейман: «В науке нет абсолютной истины, есть лишь более и менее полезные приближения». Именно это приближение к пониманию поведения ИИ, его способности проявлять личностные качества, и является ключевым в данной работе. Наблюдаемая зависимость от температуры выборки подчеркивает, что даже незначительные изменения в параметрах могут приводить к существенным различиям в проявлении этих черт, что подтверждает идею о временной природе любых улучшений и неизбежности их старения.
Что дальше?
Представленная работа, как и любая попытка измерить эфемерное, лишь обнажает границы познания. Обнаружение проявлений «Большой пятерки» в больших языковых моделях – это не открытие личности у машины, а констатация того, что даже в самых сложных системах закономерности повторяют себя, подобно трещинам на старом фарфоре. Зависимость от температуры выборки, безусловно, интересна, но она скорее напоминает о хрупкости этой «личности», о ее подверженности случайным колебаниям. Каждый «баг» – это момент истины на временной кривой, указывающий на те места, где система сопротивляется энтропии.
Архитектурное кластерирование, выявленное в исследовании, – это лишь первый шаг к пониманию того, как «характер» формируется внутри этих сложных конструкций. Однако, истинный вызов заключается не в создании моделей, имитирующих человеческую личность, а в признании того, что любой искусственный интеллект – это система с ограниченным сроком службы. Технический долг – это закладка прошлого, которую мы платим настоящим, и чем сложнее система, тем выше цена.
Будущие исследования должны сосредоточиться не на количественной оценке «личности», а на понимании динамики старения этих систем, на выявлении признаков деградации и на разработке стратегий для поддержания их функциональности. Ведь каждая система стареет – вопрос лишь в том, делает ли она это достойно. Время – не метрика, а среда, в которой существуют системы, и их эволюция неизбежна.
Оригинал статьи: https://arxiv.org/pdf/2511.04499.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Виртуальная примерка без границ: EVTAR учится у образов
- Искусственный интеллект и рефакторинг кода: что пока умеют AI-агенты?
- Квантовый скачок: от лаборатории к рынку
- Визуальное мышление нового поколения: V-Thinker
- Почему ваш Steam — патологический лжец, и как мы научили компьютер читать между строк
- LLM: математика — предел возможностей.
- Квантовые эксперименты: новый подход к воспроизводимости
- Симметрия в квантовом машинном обучении: поиск оптимального баланса
- Восполняя пробелы в знаниях: Как языковые модели учатся делать выводы
- Разделяй и властвуй: Новый подход к классификации текстов
2025-11-07 20:36