Автор: Денис Аветисян
Обзор показывает, как развитие искусственного интеллекта порождает новые риски в сфере кибербезопасности и требует пересмотра стратегий защиты.

Анализ возникающих угроз, включая дипфейки, атаки с использованием adversarial AI, автоматизацию вредоносного ПО и методы социальной инженерии, а также обзор необходимых регуляторных мер.
Несмотря на огромный потенциал искусственного интеллекта, его двойственная природа создает новые угрозы в сфере кибербезопасности. В настоящем обзоре, ‘AI-Driven Cybersecurity Threats: A Survey of Emerging Risks and Defensive Strategies’, анализируются возникающие риски, механизмы атак и недостатки существующих систем защиты, связанные с применением ИИ. Исследование выявило, что дипфейки, состязательные атаки, автоматизированное вредоносное ПО и ИИ-управляемый социальный инжиниринг представляют собой наиболее актуальные вызовы. Как обеспечить надежную, прозрачную и соответствующую нормативным требованиям защиту в условиях постоянно эволюционирующего ландшафта киберугроз, основанных на искусственном интеллекте?
Растущая Угроза: Искусственный Интеллект и Кибербезопасность
Традиционные методы кибербезопасности демонстрируют растущую неэффективность в противостоянии атакам, основанным на искусственном интеллекте, что создает серьезную уязвимость. Наблюдается десятикратный рост числа инцидентов с дипфейками по всему миру, что свидетельствует о значительном усилении способности злоумышленников обходить существующие системы защиты. Более сложные и реалистичные подделки, генерируемые с помощью ИИ, успешно обманывают как технологические инструменты обнаружения, так и самих пользователей, что приводит к увеличению числа успешных фишинговых атак и случаев мошенничества. Данный тренд указывает на необходимость срочной переоценки и адаптации стратегий кибербезопасности, с акцентом на использование инструментов, способных распознавать и нейтрализовывать угрозы, порожденные искусственным интеллектом.
В последнее время наблюдается резкое увеличение эффективности фишинговых и социально-инженерных атак, обусловленное применением искусственного интеллекта. Технологии ИИ позволяют злоумышленникам создавать чрезвычайно реалистичные и убедительные подделки, в том числе используя изображения и голоса знаменитостей для продвижения мошеннических схем. Согласно последним данным, около 20% граждан США уже стали жертвами подобных афер, где ИИ-сгенерированные рекомендации от известных личностей использовались для обмана и получения личной информации или финансовых средств. Эта тенденция демонстрирует значительное усложнение ландшафта киберугроз, где традиционные методы защиты становятся все менее эффективными против изощренных атак, основанных на искусственном интеллекте.
Усложнение ландшафта киберугроз связано с появлением дипфейков и автоматизированной генерации вредоносного программного обеспечения, что требует перехода к проактивной, основанной на искусственном интеллекте стратегии защиты. Недавние исследования, в частности Deepfake-Eval-2024, демонстрируют значительное снижение эффективности моделей обнаружения дипфейков: точность распознавания видеоматериалов составляет всего 50%, аудио — 48%, а изображений — лишь 45% в неконтролируемых условиях. Такое падение производительности подчеркивает уязвимость существующих систем защиты и необходимость разработки новых методов, способных эффективно противостоять все более изощренным атакам, созданным с использованием искусственного интеллекта. Неспособность оперативно адаптироваться к этим угрозам ставит под риск конфиденциальность данных и безопасность информационных систем.
Существующие нормативно-правовые акты, такие как IT Act 2000, испытывают значительные трудности в адаптации к новым вызовам, порождаемым искусственным интеллектом в сфере кибербезопасности, что выявляет существенный пробел в регулировании. Эта проблема усугубляется резким ростом числа инцидентов с дипфейками в различных регионах: в Северной Америке зафиксировано увеличение на 1740%, в Азиатско-Тихоокеанском регионе — на 1530%, а в Европе — на 780%. Данная тенденция демонстрирует, что традиционные методы правового регулирования оказываются неэффективными против быстро развивающихся угроз, создаваемых с использованием ИИ, и требует разработки новых правовых инструментов, способных адекватно реагировать на эти вызовы и обеспечивать защиту от новых видов киберпреступлений.

ИИ как Нападающий: Новые Векторы и Техники
Атаки с использованием отравления данных (data poisoning) становятся все более распространенным методом компрометации систем искусственного интеллекта. Злоумышленники внедряют в обучающие наборы данных намеренно искаженные или вредоносные данные, что приводит к снижению точности, ошибочным результатам или даже к полному выводу из строя ИИ-систем. Масштаб последствий подтверждается инцидентом с программой-вымогателем WannaCry, которая в 2017 году заразила более 300 000 систем в 150 странах, включая 48 000 систем в Индии, демонстрируя потенциал разрушительных атак, усиленных возможностями искусственного интеллекта. В отличие от традиционных кибератак, отравление данных направлено не на эксплуатацию уязвимостей в коде, а на манипулирование самим процессом обучения ИИ, что делает защиту значительно сложнее.
Автоматизация на основе искусственного интеллекта значительно упрощает создание полиморфного вредоносного ПО, позволяя злоумышленникам генерировать постоянно меняющиеся варианты, уклоняющиеся от обнаружения на основе сигнатур. Появление модели “Malware-as-a-Service” (MaaS) привело к распространению вредоносных инструментов по подписке, снижая порог входа для киберпреступников и позволяя им использовать сложные инструменты без необходимости разработки собственных. Эта тенденция привела к увеличению количества и разнообразия атак, поскольку даже пользователи с ограниченными техническими знаниями могут получить доступ к вредоносному ПО и использовать его для проведения атак.
Современные схемы социального инжиниринга, такие как «pig butchering» (выращивание свиней), активно используют возможности искусственного интеллекта для установления доверия и максимизации финансовых потерь жертв. Зафиксированы случаи, когда злоумышленники, используя ИИ для имитации руководителей, нанесли ущерб на 25 миллионов долларов в Гонконге, а также случаи потери 1.2 миллиона долларов руководителем технологической компании в США из-за ИИ-генерируемой криптовалютной платформы. Эти инциденты демонстрируют повышение эффективности атак, основанных на манипулировании доверием, за счет использования технологий искусственного интеллекта для создания убедительных, но фальшивых взаимодействий.
Использование диффузионных моделей преобразования текста в речь (TTS) значительно повышает реалистичность атак с клонированием голоса, что, в свою очередь, увеличивает эффективность социальной инженерии. Современные TTS модели способны воспроизводить интонации и манеру речи конкретного человека с высокой точностью, что затрудняет выявление подделки. Статистические данные показывают повышенную уязвимость возрастной группы 18-34 лет: 33% представителей этой группы становятся жертвами мошеннических схем с использованием искусственного интеллекта, в то время как доля пострадавших среди всего населения составляет 20%. Это указывает на необходимость повышения осведомленности и разработки специализированных мер защиты для молодых пользователей, которые могут быть менее осведомлены о подобных угрозах.

Противостояние ИИ: Продвинутые Меры Защиты
Методы объяснимого искусственного интеллекта (XAI), в частности, взвешенный анализ n-грамм, позволяют выявлять закономерности в фишинговых атаках, недоступные при традиционных подходах. Анализ n-грамм разбивает входящие сообщения на последовательности из n символов, а взвешивание позволяет определить наиболее значимые последовательности, характерные для фишинговых писем — например, определенные фразы, символы или комбинации символов, часто используемые для обмана пользователей. Выявление этих закономерностей позволяет создавать более эффективные фильтры и системы обнаружения, способные идентифицировать и блокировать фишинговые попытки с высокой точностью, снижая количество ложных срабатываний и повышая общую безопасность.
Методы защитной дистилляции и состязательного обучения (adversarial training) являются ключевыми техниками повышения устойчивости систем искусственного интеллекта к состязательным атакам. Защитная дистилляция предполагает обучение упрощенной, «дистиллированной» модели на основе выходных данных более сложной модели, что снижает чувствительность к незначительным, но намеренно измененным входным данным. Состязательное обучение, в свою очередь, заключается в обучении модели на специально разработанных примерах, предназначенных для обмана системы, что позволяет ей научиться распознавать и противостоять подобным атакам. Комбинирование этих подходов значительно повышает робастность ИИ-систем, особенно в критически важных приложениях, где надежность и безопасность имеют первостепенное значение.
Обнаружение враждебных входных данных (adversarial input detection) представляет собой критически важный этап защиты систем искусственного интеллекта. Данная техника фокусируется на идентификации и блокировке злонамеренных входных данных, специально сконструированных для обхода или нарушения работы системы, до того, как они смогут повлиять на ее функционирование. Методы обнаружения включают анализ характеристик входных данных, выявление аномалий и отклонений от ожидаемых параметров, а также применение статистических моделей для определения вероятности враждебного воздействия. Эффективное обнаружение позволяет предотвратить несанкционированный доступ, манипуляции с данными и другие атаки, направленные на компрометацию системы ИИ.
Национальный институт стандартов и технологий (NIST) разработал комплексный набор рекомендаций, предназначенных для организации надежной защиты от состязательных атак (adversarial attacks) на системы искусственного интеллекта. Данные рекомендации, представленные в публикациях NIST, охватывают различные аспекты, включая оценку рисков, разработку стратегий защиты, внедрение механизмов обнаружения атак и мониторинг эффективности применяемых мер. Особое внимание уделяется важности комплексного подхода к обеспечению безопасности, включающего как технические решения, так и организационные процедуры. Публикации NIST служат основой для разработки и внедрения стандартов безопасности в области искусственного интеллекта, помогая организациям эффективно противодействовать потенциальным угрозам и обеспечивать надежность и безопасность AI-систем.
Согласование: Регулирование и Перспективы Будущего
Закон Европейского Союза об искусственном интеллекте (AI Act) является важным шагом к регулированию этой сферы и смягчению сопутствующих рисков, однако его реальное глобальное влияние пока остается неопределенным. Этот законодательный акт, стремясь установить стандарты для разработки и применения систем искусственного интеллекта, может оказать значительное давление на технологические компании во всем мире, вынуждая их адаптировать свои продукты и процессы к более строгим требованиям. Несмотря на то, что закон в первую очередь направлен на европейский рынок, ожидается, что его положения окажут косвенное влияние на международные практики, особенно в сферах, связанных с правами человека и безопасностью. Поскольку другие страны начинают разрабатывать собственные нормативные рамки для искусственного интеллекта, опыт ЕС, как положительный, так и отрицательный, вероятно, будет внимательно изучаться, что может привести к формированию глобальных стандартов в этой быстро развивающейся области. Вопрос о том, сможет ли AI Act действительно стать эталоном для международного регулирования, зависит от его эффективности, адаптивности и способности стимулировать инновации, а не подавлять их.
Цифровой закон о защите персональных данных 2023 года, несомненно, направлен на решение проблемы утечек данных, однако в нем отсутствует четкое регулирование атак, осуществляемых с использованием искусственного интеллекта. Это пробел требует немедленного устранения, поскольку современные злоумышленники все чаще используют возможности ИИ для автоматизации и усиления кибератак. Законодательство должно быть дополнено конкретными положениями, определяющими ответственность за использование ИИ в злонамеренных целях, а также предусматривающими механизмы защиты от атак, основанных на искусственном интеллекте. Без этих дополнений существующий закон может оказаться неэффективным в борьбе с новыми, более сложными угрозами, которые становятся все более распространенными в цифровом пространстве.
Эффективная кибербезопасность в эпоху стремительного развития искусственного интеллекта требует комплексного подхода, объединяющего правовые рамки, технологические инновации и международное сотрудничество. Недостаточно полагаться лишь на законодательное регулирование или передовые технологии — необходима синергия этих элементов. Разработка и внедрение строгих правовых норм, определяющих ответственность за кибератаки и защиту данных, должны сопровождаться активными исследованиями и разработками в области защиты от вредоносных программ, анализа угроз и разработки устойчивых систем. Однако, учитывая глобальный характер киберпространства, успех этих усилий невозможен без тесного взаимодействия между государствами, обмена информацией об угрозах и совместной разработки стандартов безопасности. Только объединив усилия на всех уровнях, можно эффективно противостоять растущим киберугрозам и обеспечить безопасное цифровое будущее.
Постоянные исследования и разработки в области объяснимого искусственного интеллекта, защиты от состязательных атак и проактивной разведывательной деятельности в сфере кибербезопасности представляются критически важными для опережения постоянно меняющегося ландшафта угроз. Особую тревогу вызывает тот факт, что каждый четвертый гражданин Канады уже столкнулся с дезинформацией политического характера, что подчеркивает настоятельную необходимость оперативных мер в преддверии выборов, запланированных на апрель 2025 года. Разработка систем, способных предоставлять прозрачные объяснения своим решениям, а также эффективные методы защиты от злонамеренных манипуляций и заблаговременного выявления потенциальных угроз, становится не просто желательной, но и необходимой для обеспечения информационной безопасности и поддержания доверия к демократическим институтам.
Исследование углубляется в постоянно меняющийся ландшафт киберугроз, обусловленных искусственным интеллектом, анализируя возможности дипфейков, состязательных атак и автоматизированного вредоносного ПО. Автор подчеркивает, что понимание этих угроз — ключ к разработке эффективных стратегий защиты. В этом контексте, особенно актуально высказывание Давида Гильберта: «Мы должны знать. Мы должны знать, что мы можем знать». Эта фраза отражает необходимость глубокого анализа систем безопасности, чтобы предвидеть и нейтрализовать потенциальные атаки, ведь лишь полное понимание принципов работы системы позволяет эффективно противостоять её взлому и защитить критически важные данные. Знание становится главным инструментом в борьбе с постоянно эволюционирующими киберугрозами.
Куда же это всё ведёт?
Представленный анализ, по сути, лишь вскрытие первого слоя. Искусственный интеллект, как и любой инструмент, расширяет возможности как обороны, так и нападения. Однако, фокус смещается не на создание “супероружия” в киберпространстве, а на выявление фундаментальной асимметрии. Защита, как правило, реактивна, тогда как атака, усиленная ИИ, способна к проактивному исследованию уязвимостей, предвосхищая контрмеры. Вопрос в том, не превратится ли гонка вооружений в бесконечный цикл, где каждый новый щит рождает более изощрённое копье.
Особый интерес представляет автоматизация социальной инженерии. ИИ способен создавать убедительные нарративы, адаптированные к индивидуальным психологическим профилям, делая традиционные методы защиты практически бесполезными. Попытки регуляции, вероятно, лишь подтолкнут атакующих к поиску лазеек и развитию техник обхода, а борьба с дипфейками, скорее всего, превратится в бесконечную игру в кошки-мышки.
Перспективы лежат в плоскости не просто улучшения алгоритмов обнаружения, а в создании систем, способных к самообучению и адаптации к новым угрозам, предвосхищая их появление. Но и здесь кроется парадокс: ИИ, обучающийся на атаках, неизбежно усваивает и их принципы, потенциально становясь уязвимым к новым, более изощрённым техникам. В конечном итоге, вопрос не в том, сможем ли мы победить в этой гонке, а в том, готовы ли мы принять тот факт, что абсолютной безопасности не существует.
Оригинал статьи: https://arxiv.org/pdf/2601.03304.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Насколько важна полнота при оценке поиска?
- Вопросы по PDF: Новый вызов для искусственного интеллекта
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- Оптический Искусственный Интеллект: Новый Взгляд на Энергоэффективность
- Искусственный интеллект на службе науки: новый инструмент для анализа данных
- Переключение намагниченности в квантовых антиферромагнетиках: новые горизонты для терагерцовой спинтроники
- Машинное обучение и тайны модулярности
- Диффузия против Квантов: Новый Взгляд на Факторизацию
- Квантовое превосходство в простых вычислениях: Разделение QAC0 и AC0
- Искусственный интеллект и рефакторинг кода: что пока умеют AI-агенты?
2026-01-08 08:42