Разумный агент: Настройка поведения ИИ для эффективной работы с инструментами

Саморазвивающийся цикл данных и структура обучения для калибровки поведения совместно формируют основу ET-Agent, обеспечивая итеративное улучшение и адаптацию агента к изменяющимся условиям.

Новая методика позволяет обучать ИИ-агентов, использующих внешние инструменты, достигать оптимального баланса между точностью и скоростью выполнения задач.

Химические процессы: от идеи до симуляции за считанные часы

Разработка химических процессов традиционно требует значительных ручных усилий на всех этапах, в то время как существующие автоматизированные методы ограничиваются различными графическими представлениями, тогда как предлагаемый подход обеспечивает сквозную автоматизацию и охватывает различные измерения, выходя за рамки стандартных диаграмм технологических процессов [latex] (Douglas1988) [/latex] и используя гиперграфы с параметрическими аннотациями [latex] (Mannet al.2024) [/latex].

Новый подход объединяет возможности больших языковых моделей и многоагентных систем для автоматического создания рабочих химических процессов по текстовому описанию.

Когда всем хорошо: как учёт идиом улучшает машинный перевод

Методы GRPO-QE-\* различаются в подходе к семантическому пространству: QE-Positive сближает семантически эквивалентные тексты, QE-Negative отдаляет неэквивалентные, QE-Constrained стремится к балансу между этими процессами, а QE-DA использует эталонный перевод для уточнения оценки качества машинного перевода.

Новое исследование показывает, что обучение языковых моделей с использованием оценки качества перевода в качестве сигнала вознаграждения позволяет добиться значительного улучшения как в переводе идиом, так и в общей точности перевода на разные языки.

Электрические поля в мире молекул: точные расчеты и новые возможности

В статье представлен всесторонний анализ электрических градиентов полей в молекулах и твердых телах, охватывающий современные вычислительные методы и факторы, влияющие на точность расчетов.

Где ‘разум’ в нейронных сетях? Новый взгляд на выравнивание языковых моделей

Исследование показывает, что способность больших языковых моделей соответствовать человеческим предпочтениям сосредоточена в последних слоях нейронной сети.

Скрытая Связь: Как Модели Языка Учатся и Забывают

В ходе тонкой настройки LoRA наблюдается искусственное профилирование запутанности [latex]\Delta W_Q[/latex] и [latex]\Delta W_V[/latex], аналогичное представленному на рис. 3, что демонстрирует характер изменения весов в процессе адаптации модели.

Новое исследование показывает, что внутренние процессы обучения больших языковых моделей гораздо сложнее, чем кажется на первый взгляд, и характеризуются неожиданными паттернами корреляции.