Искусственный интеллект находит все более широкое применения для автоматизации и оптимизации кибератак. Средства ИИ позволяют злоумышленникам генерировать вредоносный код, анализировать системы и обходить системы защиты, по минимуму привлекая ручной труд. Большие языковые модели (large language models, LLM) позволили значительно ускорить кибератаки и намного удешевили их. Кроме того, такие модели сделали разработку механизмов атак более доступной для киберпреступников с небольшим опытом. В результате использование ИИ приносит массу новых наборов для атак, которые реализуются быстрее и обладают отличной масштабируемостью. И такие атаки уже практически невозможно остановить, имея лишь традиционные средства информационной безопасности.
Искусственный интеллект охотно используется различными хакерскими группировками. Средства ИИ помогают ускорять кибератаки, делают их более адаптивными к ландшафту средств защиты, а значит, более сложными для отражения. Вредоносные кампании благодаря ИИ становятся легко управляемыми и масштабируемыми — от создания вирусов до написания скриптов для фишинговых атак. Перечислим основные области использования ИИ хакерами.
Поиск уязвимостей
Автоматизация сканирования уязвимостей (CVE) в программном обеспечении позволяет ускорить нахождение и эксплуатацию этих уязвимостей. То, на что раньше злоумышленники на основе ручного поиска тратили долгие часы и дни, теперь может занимать считанные минуты, если хакеры берут на вооружение модели машинного обучения, средства разведки и инструменты генерации эксплойтов. Средства ИИ помогают киберпреступникам не только быстро находить незакрытые уязвимости ПО, но и выявлять устаревшие программы и обнаруживать изъяны в конфигурациях.
По данным Ponemon Institute, 54% специалистов по кибербезопасности считают незакрытые уязвимости главной проблемой в эпоху атак с использованием ИИ.
Генерация полезной нагрузки
В последние несколько лет хакерское сообщество получило ряд специализированных ИИ-инструментов, созданных на основе больших языковых моделей. Речь идет про такие чат-боты, как HackerGPT и WormGPT, которые помогают киберпреступникам создавать вредоносное ПО с хорошими возможностями маскировки, автоматизацией обхода систем защиты и функциями преобразования скриптов в исполняемые файлы. Такое ПО все чаще служит в атаках с использованием ИИ-агентов, где генеративные модели принимают решения автономно, без участия человека.
Фишинговые атаки и социальная инженерия
Используя инструменты ИИ, хакеры создают фишинговые письма, отличающиеся высоким уровнем убедительности, а также пишут скрипты для общения с жертвами. Еще одно направление — генерация дипфейков для более эффективного манипулирования выбранными целями атак.
Разведка и планирование атак
Средства искусственного интеллекта позволяют злоумышленникам быстрее находить цели, создавать схемы инфраструктуры компаний-жертв и выявлять в них уязвимости.
Атаки без участия человека
На сегодня можно выделить два субъекта кибератак с использованием искусственного интеллекта: хакеры, применяющие ИИ, а также ИИ-агенты.
В первом случаи атаки полностью совершаются с участием людей, ИИ в таких случаях служит для автоматизации, оптимизации и масштабирования киберпреступлений.
Во втором случае используются автономные хакерские агенты — рабочие процессы, управляемые ИИ. После запуска они способны действовать самостоятельно, реализуя многоэтапные атаки более эффективно, чем в ручном режиме. Агенты ИИ самостоятельно принимают решения, объединяют задачи и требуют лишь минимального контроля. Таким образом атаки совершаются в полуавтоматическом режиме, с минимальным участием человека.
Компания Anthropic, создатель больших языковых моделей, в ноябре 2025 года выяснила, что китайские хакеры использовали ее ИИ-технологии для проведения автоматизированных кибератак на технологические компании. Согласно отчету Anthropic, для написания кода злоумышленники взяли ее ИИ-агент Claude Code. При этом атаки практически полностью совершались в автоматическом режиме, то есть при минимальном участии человека. Компания уточнила, что на долю операторов-людей приходилось только 10–20% работы, необходимой для проведения хакерских операций. Anthropic заявляет, что всего пострадали 30 организаций, но не раскрывает их названия.
В феврале 2025 года компания OpenAI заявила, что обнаружила доказательства создания китайскими спецслужбами инструмента на основе искусственного интеллекта для сбора информации об антикитайских публикациях в социальных сетях западных стран.
Использование LLM в рамках жизненного цикла кибератак
Изучение потенциальных целей и автоматизация разведки.
Написание вредоносных скриптов или полиморфного вредоносного ПО (меняющего свой код при каждом новом заражении).
Создание фишингового контента или аудио-дипфейков.
Оптимизация кибератак в режиме реального времени, чтобы избежать обнаружения.
Принятие стратегических решений о доставке вредоносных средств или сохранении полезной нагрузки.
Источник: OPSWAT
Использование средств искусственного интеллекта буквально с калейдоскопической скоростью меняет набор угроз, стоящих перед организацией.
Во-первых, проведение атак «демократизировалось», порог входа в хакерское сообщество существенно понизился: то, что раньше требовало экспертных знаний, хорошей математической подготовки и большого опыта, теперь доступно с помощью простых подсказок и путем выполнения несложных действий — буквально в несколько кликов мыши. Применяя LLM на основе открытого исходного кода, хакеры могут оптимизировать атаки и запускать их отовсюду, где есть локальные вычислительные мощности.
Во-вторых, у киберпреступников появились более широкие возможности для обхода блокировок. Созданное с помощью ИИ вредоносное ПО, как правило, сложнее выявить средствами статического детектирования, с помощью «песочниц» и даже с привлечением динамического анализа.
В-третьих, ИИ способствует распространению моделей типа «Вредоносное ПО как услуга» и «Вирус-вымогатель как услуга» (MaaS, RaaS). Хакеры используют ИИ для быстрого создания наборов вредоносных инструментов, распространяемых по подписке. Это не только позволяет вовлечь в хакерское сообщество много новых участников, но и упрощает запуск масштабных атак.
Сравнение традиционных кибератак и взломов с использованием ИИ
Средства искусственного интеллекта дают злоумышленникам мощные возможности по автоматизации, оптимизации и масштабированию компьютерных атак. В отличие от традиционных взломов, которые основаны на ручном написании скриптов, требуют хороших технических знаний и больших временных затрат, кибератаки с использованием средств ИИ имеют фундаментальные отличия в скорости, адаптивности и доступности.
В приведенной ниже таблице обозначена разница аспектов при традиционных кибератаках и взломах с использованием ИИ.
|
Аспект |
Традиционные кибератаки |
Кибератаки с ИИ |
|
Скорость |
Медленная реализация, требуется ручное написание скриптов. |
Почти мгновенное выполнение благодаря средствам автоматизации. |
|
Требования к квалификации |
Высокие; требуется глубокая техническая экспертиза. |
Невысокие, во многом основанные на подсказках; низкий порог входа для хакеров, но требуется доступ к модели и настройкам. |
|
Масштабируемость |
Ограничена наличием времени и человеческих ресурсов. |
Высокая — поддерживаются многоэтапные атаки на множество целей. |
|
Адаптируемость |
Жесткие или слабо адаптируемые сценарии. |
Динамичная — ИИ корректирует полезную нагрузку и способы уклонения от средств обнаружения. |
|
Векторы атак |
Вредоносное ПО, фишинг, разведка ручными методами и эксплойты. |
LLM, дипфейки, классификаторы моделей атак, автономные ИИ-агенты. |
|
Ограничения |
Использование ИИ может иметь непредсказуемые последствия; без человеческого контроля такие атаки не имеют целей и контекста. |
Больше возможностей стратегического контроля, но атаки более медленные и реализуются вручную. |
Источник: OPSWAT
Несмотря на значительный рост уровня угроз, связанных с искусственным интеллектом, только 37% мировых организаций заявляют о готовности отразить кибератаки с использованием ИИ, отмечают авторы исследования Ponemon Institute “State of AI Cybersecurity Report”. Многие компании недооценивают опасность ИИ-угроз, полагаются на устаревшие планы управления киберрисками и продолжают следовать реактивным стратегиям обнаружения угроз. В то же время ряд специалистов по ИБ говорят о том, что мир уже стоит на пороге сингулярности в плане кибербезопасности ИИ, то есть технологический уровень средств искусственного интеллекта в атаках уже таков, что вскоре мир окажется не способен найти эффективных решений против атак без участия человека и других изощренных методов.
Чтобы обеспечить максимальные возможности для отражения кибератак, основанных на средствах искусственного интеллекта, компаниям важно не просто научиться выявлять подобные инциденты, а обеспечить многоуровневые системы защиты. Они должны быть основаны на многоуровневой стратегии, включающей использование автоматизированных средств в сочетании с человеческим интеллектом, а также инструменты предотвращения и обнаружения угроз.
В рамках построения систем защиты полезно провести тестирование безопасности с помощью независимых специалистов. Это поможет определить, насколько компания готова к отражению атак, в ходе которых хакеры используют LLM, широко используют ИИ-подсказки и применяют обход классификаторов. Такое тестирование позволяет выявить изъяны в системах защиты на основе ИИ до того, как это сделают злоумышленники.
Тестирование безопасности ИИ-систем также включает:
Фаззинг моделей — метод выявления рисков инъекции подсказок;
Оценку обработки большими языковыми моделями входных данных;
Тестирование устойчивости классификатов к модели уклонения перед средствами обнаружения.
В последнее время руководители служб ИБ также начали активно проверять собственные LLM на предмет утечек подсказок, некорректной работы или непреднамеренного доступа к внутренней логике, что является критически важным шагом на пути внедрения генеративного ИИ в продукты и рабочие процессы.
Многоуровневая умная защита
Ввязываться в соревнование «ИИ против ИИ» компаниям весьма рискованно. В этой битве можно быстро проиграть. Целесообразно не ввязываться в открытую борьбу, а организовать интеллектуальную многоуровневую систему защиты от атак, основанных на использовании средств искусственного интеллекта. Важно обеспечивать проактивные методы.
Среди них можно выделить:
Многоступенчатое сканирование: файлы необходимо проверять через несколько антивирусных ядер для более надежного обнаружения угроз, которые могут быть пропущены одноядерными системами.
Отправка в «песочницу»: анализ файлов в изолированных средах с целью эффективного обнаружения данных, созданных с помощью ИИ и содержащих вредоносное ПО. Как правило, вирусы практически невозможно выявить статическими методами.
Глубокий CDR (Content Disarm & Reconstruction): средство для удаления потенциально вредоносных элементов из файлов с последующим воссозданием безопасной версии контента. В отличие от традиционных антивирусов, ориентированных на поиск только известных угроз, решения CDR основаны на принципе «нулевого доверия» к контенту — система считает все файлы потенциально вредоносными и тщательно проверяет содержимое. CDR-стек информационной безопасности разработан специально для противодействия вредоносному ПО, которое генерируется средствами ИИ и отличается непредсказуемостью.
В таблице ниже перечислены основные варианты использования искусственного интеллекта в кибербезопасности, каждый из которых сопровождается реальным примером, демонстрирующим эффект от применения того или иного решения на основе ИИ.
|
Направление использования ИИ |
Компания (проект) |
Страна, отрасль |
Эффект/результат |
|
Выявление хакерских угроз и мониторинг аномальной активности в сети |
Aviso |
Канада, финансовые услуги |
73 мгновенных предупреждения об угрозах; расследовано 23 млн событий ИБ. |
|
Обнаружение вредоносного ПО, предотвращение его распространения |
CordenPharma |
Германия, фармацевтическая промышленность |
Выявление и блокировка криптомайнера; предотвращена утечка более 1 ГБ данных. |
|
Предотвращение взлома учетных записей и защита персональных данных |
Global Bank |
США, финансовые услуги |
Количество фишинговых атак с захватом учетных записей (ATO) удалось сократить на 65%. |
|
Выявление внутренних угроз |
Golomt Bank |
Монголия, финансовые услуги |
Сокращение ложных срабатываний на 60%, сокращение времени расследования инцидентов на 40%; количество оповещений сократилось от 1500 до менее 200 в день. |
|
Безопасность Интернета вещей и операционных технологий |
Создание умного города |
Неизвестно, строительство и управление городскими территориями |
Точность выявления аномалий 96–97%; децентрализованная система обнаружения угроз; реагирование на инциденты в режиме реального времени менее чем за 30 секунд. |
|
ИИ-система реагирования на инциденты и автоматизация центра управления кибербезопасностью (SOC) |
DXC Technology |
США, ИТ и консалтинг |
Сокращение количества оповещений на 60%; ускорение реагирования на 50%; сокращение ручной обработки данных. |
|
Борьба с перегрузкой оповещений |
Банк |
Одно из государств Персидского залива, финансовые услуги |
Сокращение количества оповещений и ложных срабатываний; повышение эффективности SOC. |
|
Аналитика угроз и проактивная защита |
IBM |
США, ИТ |
Проактивное обнаружение угроз; ранние пре |
|
Безопасность электронной почты и предотвращение фишинга |
|
США, ИТ |
Миллионы фишинговых писем в сервисе Gmail ежедневно блокируются с помощью моделей машинного обучения |
|
Модерация контента и выявление угроз в социальных сетях |
Facebook* |
США, ИТ |
Обнаружение вредоносного контента в режиме реального времени; улучшенный анализ трендов. |
|
Выявление финансового мошенничества |
Visa |
США, финансовые услуги (платежные сервисы) |
Оценка рисков и аномалий в транзакциях за миллисекунды. В 2023 году предотвращено 80 млн мошеннических транзакций на сумму 40 млрд долларов. |
|
Выявление аномалий в массивах финансовых данных |
Capital One |
США, финансовые услуги |
Классификация конфиденциальных данных; автоматическое выявление рисков. |
|
Управление уязвимостями и приоритизация исправлений |
Государственное агентство |
США, государственные организации |
Снижение количества фишинговых инцидентов на 90%; снижение рабочей нагрузки на 50%; автоматические исправления и контроль соответствия требованиям. |
Источник: AIMultiple
*Facebook признана экстремистской организацией в России
Таким образом, средства искусственного интеллекта становятся все более грозным и непредсказуемым оружием в руках киберпреступников. При этом запуск атак на основе моделей ИИ не требует высокой квалификации от злоумышленников. Противостоять подобным взломам государственные органы и бизнес могут только путем выстраивания многоступенчатых систем защиты, где искусственный интеллект позволяет не только тщательно отслеживать уязвимости, но и проводить глубокий анализ данных. И одной из ключевых идей для дискуссий является возможность построения эффективной системы защиты информации (подсистемы ИБ) без применения ИИ. Но критерием здесь будет служить практика, статистика инцидентов и расследования их причин в 2026–27 гг.
Руководитель направления аналитики и специальных проектов ГК InfoWatch
Источник


