Искусственный интеллект: Нелинейный разум

Новое исследование ставит под сомнение традиционные представления о развитии искусственного интеллекта, предсказывая появление принципиально отличных от человеческого форм разума.

Обучение языковых моделей: как контролировать длину ответов

В ходе обучения модели Qwen2.5-VL-7B-Instruct с подкреплением, сравнительный анализ кривых длины ответа, полученных при использовании функций потерь GRPO и GSPO, показал, что GRPO стимулирует генерацию более развернутых ответов, в то время как GSPO приводит к постепенному сокращению их длины при увеличении числа итераций обучения.

Новый алгоритм LUSPO позволяет снизить зависимость от длины генерируемых текстов, повышая стабильность и эффективность обучения больших языковых моделей.

Видят ли нейросети границы приватности на фотографиях?

Новое исследование показывает, что современные модели, обрабатывающие изображения и текст, часто нарушают контекстную целостность и раскрывают конфиденциальную информацию о местоположении.

Проверка на Гениальность: Новые Задачи для Искусственного Интеллекта

Исследователи предлагают набор сложных математических задач, разработанных для оценки способности ИИ решать проблемы на уровне передовых научных исследований.

Ожидаемое – Безопасно: Новый Подход к Защите Больших Языковых Моделей

Оценка геометрической типичности позволяет эффективно разграничить безопасные и токсичные текстовые вложения: использование махаланобисова дистанции, учитывающей ковариацию безопасных данных, обеспечивает значительно более четкое разделение распределений (с ROC AUC 0.944 против 0.733 для евклидовой дистанции) и подтверждается визуальным анализом, демонстрирующим, что токсичные образцы преимущественно выходят за границы 95% типичного множества безопасных данных.

Исследователи предлагают перейти от реактивного поиска вредоносных шаблонов к проактивному выявлению статистически атипичных данных для повышения безопасности больших языковых моделей.