Гипергеометрические функции: вычислительные методы и алгебраические свойства

В статье представлены алгоритмы для анализа поведения гипергеометрических функций при вычислении по модулю простых чисел, позволяющие установить их алгебраичность и находить уничтожающие полиномы.

Python или SQL: Где кроется слабость языковых моделей?

Рассмотрение парадигм семантического разбора естественного языка показывает, что преобразование текста в SQL делегирует оптимизацию выполнения запросов системе управления базами данных, в то время как генерация явных процедурных рабочих процессов посредством преобразования текста в Python требует от модели непосредственного решения задач вычислительной логики.

Новое исследование сравнивает возможности больших языковых моделей в преобразовании естественного языка в код на Python и SQL, выявляя ключевые различия в их устойчивости к неполной информации.

Молекулярный язык и геометрия: новый подход к предсказанию квантовых свойств

Предлагаемый фреймворк MGAHam обрабатывает SMILES-строки и молекулярные геометрии посредством SMILES-BERT и QHNet, соответственно, генерируя токеновые и геометрические вложения, после чего, посредством компенсации модальности и кросс-модального проектора, достигается выравнивание в едином пространстве вложений, что позволяет осуществлять предсказание гамильтониана исключительно на основе SMILES-строк, минуя необходимость в данных о геометрии молекул.

Исследователи разработали систему, способную предсказывать квантовые гамильтонианы молекул, используя только их SMILES-представления, без необходимости учитывать трехмерную структуру.

Самообучающиеся агенты: как повысить надёжность ИИ-исследователей

Результаты тестирования модели DeepVerifier-8B на наборе данных GAIA демонстрируют масштабируемость процесса верификации и превосходство над другими открытыми моделями после десяти итераций верификации и обратной связи, что подтверждается анализом производительности на выборке из 165 примеров.

Новая методика позволяет автоматически оценивать и улучшать работу ИИ-агентов, проводящих научные исследования, выявляя ошибки и адаптируясь в процессе работы.

Искусственный интеллект и понимание чужих мыслей: новый тест на сопереживание

Рамка CogToM представляет собой комплексный подход к моделированию когнитивных процессов, обеспечивающий структурированное представление знаний и позволяющий проводить дедуктивные умозаключения на основе формализованных [latex] \mathcal{L} [/latex]-логических правил.

Исследователи представили комплексную методику оценки способности больших языковых моделей понимать намерения и убеждения других, приближенную к принципам человеческого мышления.

Нелинейные сети: новый подход к физическим нейронным вычислениям

Сети Кольмогорова-Арнольда и устройства «синаптического нелинейного элемента» (SYNE) демонстрируют принципиально иной подход к построению нейронных сетей, где сложные нелинейные функции переносятся с нейронов на синапсы, реализуемые физически с помощью микроскопических устройств SYNE, изготовленных из кремния на изоляторе с использованием методов полимерно-прививочного легирования и оптической литографии, что позволяет достичь широкого диапазона реконфигурируемых нелинейных характеристик, включая область отрицательного дифференциального сопротивления, за счет управления всего двумя управляющими напряжениями.

Исследователи продемонстрировали физическую реализацию сети Колмогорова-Арнольда, открывая путь к более компактным и энергоэффективным нейронным системам.

Лица сквозь призму моделей: оценка возможностей искусственного интеллекта

Многомодальные большие языковые модели (MLLM) демонстрируют возможность гетерогенного распознавания лиц, открывая новые перспективы в задачах, требующих анализа визуальной информации и лингвистического контекста.

Новое исследование оценивает, насколько хорошо современные мультимодальные модели справляются с распознаванием лиц в условиях различных спектральных искажений.

Искусственный разум: Нет доказательств самосознания в современных языковых моделях

По мере увеличения размера модели наблюдается закономерность: для вопросов, касающихся людей, более крупные модели увереннее приписывают им сознание, в то время как для вопросов о больших языковых моделях и о самой модели Qwen демонстрирует возрастающую уверенность в отрицании сознания, тогда как модели Llama показывают первоначальный рост уверенности при увеличении размера с 3B до 8B, после чего стабилизируются, что указывает на различные подходы к определению сознания в зависимости от объекта оценки и архитектуры модели.

Новое исследование ставит под сомнение способность больших языковых моделей сообщать о собственном самосознании и правдивости их ответов.