Разреженное внимание: когда перестановка токенов ускоряет языковые модели.

Современные большие языковые модели демонстрируют впечатляющую способность к обработке длинных контекстов, однако эта возможность неизбежно сталкивается с фундаментальным ограничением: квадратичной сложностью механизма самовнимания. В то время как исследователи активно ищут способы обхода этого препятствия, от замены стандартного внимания до использования альтернативных архитектур, сохраняется тонкий компромисс между вычислительной эффективностью и сохранением критически важных зависимостей в длинных последовательностях. В работе ‘Sparser Block-Sparse Attention via Token Permutation’, авторы осмеливаются задаться вопросом: а возможно ли, манипулируя порядком токенов, добиться более разреженного внимания без потери способности модели улавливать тонкие, но значимые связи, определяющие её понимание длинного контекста?






