Долгая память: Оптимизация кэша для сложных рассуждений

Новый метод LongFlow позволяет значительно снизить потребление памяти и ускорить работу моделей, генерирующих длинные тексты и требующих сложных логических выводов.

Новый метод LongFlow позволяет значительно снизить потребление памяти и ускорить работу моделей, генерирующих длинные тексты и требующих сложных логических выводов.

Новый подход к организации латентного пространства в диффузионных моделях позволяет добиться впечатляющего качества и эффективности генерации изображений.
Новое исследование показывает, что стандартные алгоритмы, вероятно, уже близки к оптимальным для вычислений в трансформерах, а значительное ускорение потребует принципиально новых подходов.

Новая разработка FireRedASR2S объединяет в себе все необходимые компоненты для обработки речи, от определения начала и конца фразы до распознавания языка и расстановки знаков препинания.

Новое исследование раскрывает, как нейронные сети обрабатывают нюансы исхода событий, даже если общий результат одинаков.

Новое исследование представляет TopoBench — сложный набор задач, позволяющий оценить способность больших языковых моделей к пространственному мышлению и решению топологических головоломок.
![В рамках разработанной схемы акцентного векторного фреймворка, процесс генерации речи с акцентом осуществляется посредством конкатенации идентификатора языка (например, [latex][en][/latex]) с транскрипцией и последующей подачи полученной последовательности на вход модели после этапа тонкой настройки.](https://arxiv.org/html/2603.07534v1/x1.png)
Новый подход позволяет синтезировать речь с различным произношением в многоязычных системах, не требуя больших наборов данных с акцентами.
![Архитектура сети политики для символического упрощения использует Transformer-энкодер для обработки векторных представлений каждого терма, дополненных обучаемым токеном [CLS], при этом пренебрегая позиционным кодированием в силу симметрии перестановок термов, а затем применяет пермутационно-эквивариантную голову политики для получения вероятностей действий, определяемых функцией softmax.](https://arxiv.org/html/2603.11164v1/x1.png)
Новый подход позволяет нейронным сетям самостоятельно осваивать искусство упрощения сложных математических выражений, ориентируясь на примеры ‘перемешивания’ и восстановления порядка.
![Исследование демонстрирует, что предложенная модель UMPS способна генерировать результаты, сопоставимые с моделью MPS, обученной на значительно большем наборе данных ([latex]|\mathcal{T}|=300[/latex]) и с максимальным размером связей [latex]r_{\max}=400[/latex], при этом используя существенно меньшее количество слоев [latex]l_{\max}=4[/latex] вместо [latex]l_{\max}=25[/latex].](https://arxiv.org/html/2603.12026v1/x7.png)
Исследователи предлагают эффективный метод генерации данных, основанный на унитарных матричных произведениях состояний и оптимизации на римановых многообразиях.

Новое исследование выявило, что систематическое смещение средних значений активаций может приводить к нестабильности при обучении больших языковых моделей с использованием низкобитной квантизации.