Искусственный интеллект, который учится, проверяется и адаптируется: новый подход к надежности
![Спецификация желаемого поведения агента, формализуемая как [latex]\varphi[/latex], будь то заданная пользователем или сгенерированная языковой моделью на основе опыта, автоматически преобразуется в модель вознаграждения, направляя процесс оптимизации, в то время как агент одновременно изучает представление наблюдений посредством пространства состояний верифицируемой модели мира, что позволяет обучать политику непосредственно на этом представлении и обеспечивать гарантии посредством верификатора, предоставляющего сертификаты соответствия спецификации и качества абстракции модели мира, при этом не требуя доступа к явной динамике среды, достаточно её симуляции.](https://arxiv.org/html/2602.23997v1/2602.23997v1/x1.png)
Исследователи предлагают новую архитектуру для создания интеллектуальных агентов, способных к самообучению и надежной работе в динамично меняющихся условиях.
![В методе SenCache, чувствительность служит критерием для кэширования промежуточных результатов шумоподавления; если изменения в зашумленном латентном представлении [latex]x_t[/latex] и шаге выборки [latex]t[/latex] оказываются незначительными и оценка чувствительности (определяемая уравнением 9) падает ниже ε, используется кэшированный результат шумоподавителя, что позволяет ускорить процесс вывода диффузионной модели за счёт пропуска дорогостоящих вычислений при минимальных ожидаемых изменениях выходных данных.](https://arxiv.org/html/2602.24208v1/2602.24208v1/figures/figure2F.png)
![В процессе обучения двуслойной MLP на наборе данных CIFAR-10 с использованием InfoNCE наблюдается увеличение гауссовости представления данных, что проявляется в снижении коэффициента вариации норм представлений (указано в уравнении [latex]Eq.20[/latex]), уменьшении статистики асимметрии из не-гауссовых значений в нормальный диапазон и устойчивом росте доли координат, успешно проходящих тест DP на нормальность.](https://arxiv.org/html/2602.24012v1/2602.24012v1/figures/cifar_epochs_100.jpg)
![При подгонке гауссовской смеси одним гауссианом, различные целевые функции демонстрируют принципиально разное поведение: в то время как расхождение Кульбака-Лейблера стремится к покрытию всей массы распределения (α=50.2%), обратное расхождение Кульбака-Лейблера проявляет тенденцию к поиску отдельных мод (α=50.8%), а максимизация общей вариации [latex]\operatorname{TV}[/latex] обеспечивает максимальное перекрытие распределений (α=60.2%), подчеркивая, что выбор целевой функции оказывает решающее влияние на конечный результат и характеристики модели.](https://arxiv.org/html/2602.23881v1/2602.23881v1/motivating_example.png)



