Искусственный интеллект находит все более широкое применения для автоматизации и оптимизации кибератак. Средства ИИ позволяют злоумышленникам генерировать вредоИскусственный интеллект находит все более широкое применения для автоматизации и оптимизации кибератак. Средства ИИ позволяют злоумышленникам генерировать вредо

Кибербезопасность на грани сингулярности: шансы на выживание в ИИ-войне

Искусственный интеллект находит все более широкое применения для автоматизации и оптимизации кибератак. Средства ИИ позволяют злоумышленникам генерировать вредоносный код, анализировать системы и обходить системы защиты, по минимуму привлекая ручной труд. Большие языковые модели (large language models, LLM) позволили значительно ускорить кибератаки и намного удешевили их. Кроме того, такие модели сделали разработку механизмов атак более доступной для киберпреступников с небольшим опытом. В результате использование ИИ приносит массу новых наборов для атак, которые реализуются быстрее и обладают отличной масштабируемостью. И такие атаки уже практически невозможно остановить, имея лишь традиционные средства информационной безопасности.

Как ИИ используется киберпреступностью

Искусственный интеллект охотно используется различными хакерскими группировками. Средства ИИ помогают ускорять кибератаки, делают их более адаптивными к ландшафту средств защиты, а значит, более сложными для отражения. Вредоносные кампании благодаря ИИ становятся легко управляемыми и масштабируемыми — от создания вирусов до написания скриптов для фишинговых атак. Перечислим основные области использования ИИ хакерами.

Поиск уязвимостей

Автоматизация сканирования уязвимостей (CVE) в программном обеспечении позволяет ускорить нахождение и эксплуатацию этих уязвимостей. То, на что раньше злоумышленники на основе ручного поиска тратили долгие часы и дни, теперь может занимать считанные минуты, если хакеры берут на вооружение модели машинного обучения, средства разведки и инструменты генерации эксплойтов. Средства ИИ помогают киберпреступникам не только быстро находить незакрытые уязвимости ПО, но и выявлять устаревшие программы и обнаруживать изъяны в конфигурациях.

По данным Ponemon Institute, 54% специалистов по кибербезопасности считают незакрытые уязвимости главной проблемой в эпоху атак с использованием ИИ.

Генерация полезной нагрузки

В последние несколько лет хакерское сообщество получило ряд специализированных ИИ-инструментов, созданных на основе больших языковых моделей. Речь идет про такие чат-боты, как HackerGPT и WormGPT, которые помогают киберпреступникам создавать вредоносное ПО с хорошими возможностями маскировки, автоматизацией обхода систем защиты и функциями преобразования скриптов в исполняемые файлы. Такое ПО все чаще служит в атаках с использованием ИИ-агентов, где генеративные модели принимают решения автономно, без участия человека.

Фишинговые атаки и социальная инженерия

Используя инструменты ИИ, хакеры создают фишинговые письма, отличающиеся высоким уровнем убедительности, а также пишут скрипты для общения с жертвами. Еще одно направление — генерация дипфейков для более эффективного манипулирования выбранными целями атак.

Разведка и планирование атак

Средства искусственного интеллекта позволяют злоумышленникам быстрее находить цели, создавать схемы инфраструктуры компаний-жертв и выявлять в них уязвимости.

Атаки без участия человека

На сегодня можно выделить два субъекта кибератак с использованием искусственного интеллекта: хакеры, применяющие ИИ, а также ИИ-агенты.

В первом случаи атаки полностью совершаются с участием людей, ИИ в таких случаях служит для автоматизации, оптимизации и масштабирования киберпреступлений.

Во втором случае используются автономные хакерские агенты — рабочие процессы, управляемые ИИ. После запуска они способны действовать самостоятельно, реализуя многоэтапные атаки более эффективно, чем в ручном режиме. Агенты ИИ самостоятельно принимают решения, объединяют задачи и требуют лишь минимального контроля. Таким образом атаки совершаются в полуавтоматическом режиме, с минимальным участием человека.

Компания Anthropic, создатель больших языковых моделей, в ноябре 2025 года выяснила, что китайские хакеры использовали ее ИИ-технологии для проведения автоматизированных кибератак на технологические компании. Согласно отчету Anthropic, для написания кода злоумышленники взяли ее ИИ-агент Claude Code. При этом атаки практически полностью совершались в автоматическом режиме, то есть при минимальном участии человека. Компания уточнила, что на долю операторов-людей приходилось только 10–20% работы, необходимой для проведения хакерских операций. Anthropic заявляет, что всего пострадали 30 организаций, но не раскрывает их названия.

В феврале 2025 года компания OpenAI заявила, что обнаружила доказательства создания китайскими спецслужбами инструмента на основе искусственного интеллекта для сбора информации об антикитайских публикациях в социальных сетях западных стран.

Использование LLM в рамках жизненного цикла кибератак

  • Изучение потенциальных целей и автоматизация разведки.

  • Написание вредоносных скриптов или полиморфного вредоносного ПО (меняющего свой код при каждом новом заражении).

  • Создание фишингового контента или аудио-дипфейков.

  • Оптимизация кибератак в режиме реального времени, чтобы избежать обнаружения.

  • Принятие стратегических решений о доставке вредоносных средств или сохранении полезной нагрузки.

Источник: OPSWAT

ИИ меняет ландшафт угроз

Использование средств искусственного интеллекта буквально с калейдоскопической скоростью меняет набор угроз, стоящих перед организацией.

Во-первых, проведение атак «демократизировалось», порог входа в хакерское сообщество существенно понизился: то, что раньше требовало экспертных знаний, хорошей математической подготовки и большого опыта, теперь доступно с помощью простых подсказок и путем выполнения несложных действий — буквально в несколько кликов мыши. Применяя LLM на основе открытого исходного кода, хакеры могут оптимизировать атаки и запускать их отовсюду, где есть локальные вычислительные мощности.

Во-вторых, у киберпреступников появились более широкие возможности для обхода блокировок. Созданное с помощью ИИ вредоносное ПО, как правило, сложнее выявить средствами статического детектирования, с помощью «песочниц» и даже с привлечением динамического анализа.

В-третьих, ИИ способствует распространению моделей типа «Вредоносное ПО как услуга» и «Вирус-вымогатель как услуга» (MaaS, RaaS). Хакеры используют ИИ для быстрого создания наборов вредоносных инструментов, распространяемых по подписке. Это не только позволяет вовлечь в хакерское сообщество много новых участников, но и упрощает запуск масштабных атак.

Сравнение традиционных кибератак и взломов с использованием ИИ

Средства искусственного интеллекта дают злоумышленникам мощные возможности по автоматизации, оптимизации и масштабированию компьютерных атак. В отличие от традиционных взломов, которые основаны на ручном написании скриптов, требуют хороших технических знаний и больших временных затрат, кибератаки с использованием средств ИИ имеют фундаментальные отличия в скорости, адаптивности и доступности.

В приведенной ниже таблице обозначена разница аспектов при традиционных кибератаках и взломах с использованием ИИ.

Аспект

Традиционные кибератаки

Кибератаки с ИИ

Скорость

Медленная реализация, требуется ручное написание скриптов.

Почти мгновенное выполнение благодаря средствам автоматизации.

Требования к квалификации

Высокие; требуется глубокая техническая экспертиза.

Невысокие, во многом основанные на подсказках; низкий порог входа для хакеров, но требуется доступ к модели и настройкам.

Масштабируемость

Ограничена наличием времени и человеческих ресурсов.

Высокая — поддерживаются многоэтапные атаки на множество целей.

Адаптируемость

Жесткие или слабо адаптируемые сценарии.

Динамичная — ИИ корректирует полезную нагрузку и способы уклонения от средств обнаружения.

Векторы атак

Вредоносное ПО, фишинг, разведка ручными методами и эксплойты.

LLM, дипфейки, классификаторы моделей атак, автономные ИИ-агенты.

Ограничения

Использование ИИ может иметь непредсказуемые последствия; без человеческого контроля такие атаки не имеют целей и контекста.

Больше возможностей стратегического контроля, но атаки более медленные и реализуются вручную.

Источник: OPSWAT

Как госорганам и бизнесу защититься от ИИ-кибератак

Несмотря на значительный рост уровня угроз, связанных с искусственным интеллектом, только 37% мировых организаций заявляют о готовности отразить кибератаки с использованием ИИ, отмечают авторы исследования Ponemon Institute “State of AI Cybersecurity Report”. Многие компании недооценивают опасность ИИ-угроз, полагаются на устаревшие планы управления киберрисками и продолжают следовать реактивным стратегиям обнаружения угроз. В то же время ряд специалистов по ИБ говорят о том, что мир уже стоит на пороге сингулярности в плане кибербезопасности ИИ, то есть технологический уровень средств искусственного интеллекта в атаках уже таков, что вскоре мир окажется не способен найти эффективных решений против атак без участия человека и других изощренных методов.

Чтобы обеспечить максимальные возможности для отражения кибератак, основанных на средствах искусственного интеллекта, компаниям важно не просто научиться выявлять подобные инциденты, а обеспечить многоуровневые системы защиты. Они должны быть основаны на многоуровневой стратегии, включающей использование автоматизированных средств в сочетании с человеческим интеллектом, а также инструменты предотвращения и обнаружения угроз.

В рамках построения систем защиты полезно провести тестирование безопасности с помощью независимых специалистов. Это поможет определить, насколько компания готова к отражению атак, в ходе которых хакеры используют LLM, широко используют ИИ-подсказки и применяют обход классификаторов. Такое тестирование позволяет выявить изъяны в системах защиты на основе ИИ до того, как это сделают злоумышленники.

Тестирование безопасности ИИ-систем также включает:

  • Фаззинг моделей — метод выявления рисков инъекции подсказок;

  • Оценку обработки большими языковыми моделями входных данных;

  • Тестирование устойчивости классификатов к модели уклонения перед средствами обнаружения.

В последнее время руководители служб ИБ также начали активно проверять собственные LLM на предмет утечек подсказок, некорректной работы или непреднамеренного доступа к внутренней логике, что является критически важным шагом на пути внедрения генеративного ИИ в продукты и рабочие процессы.

Многоуровневая умная защита

Ввязываться в соревнование «ИИ против ИИ» компаниям весьма рискованно. В этой битве можно быстро проиграть. Целесообразно не ввязываться в открытую борьбу, а организовать интеллектуальную многоуровневую систему защиты от атак, основанных на использовании средств искусственного интеллекта. Важно обеспечивать проактивные методы.

Среди них можно выделить:

  • Многоступенчатое сканирование: файлы необходимо проверять через несколько антивирусных ядер для более надежного обнаружения угроз, которые могут быть пропущены одноядерными системами.

  • Отправка в «песочницу»: анализ файлов в изолированных средах с целью эффективного обнаружения данных, созданных с помощью ИИ и содержащих вредоносное ПО. Как правило, вирусы практически невозможно выявить статическими методами.

  • Глубокий CDR (Content Disarm & Reconstruction): средство для удаления потенциально вредоносных элементов из файлов с последующим воссозданием безопасной версии контента. В отличие от традиционных антивирусов, ориентированных на поиск только известных угроз, решения CDR основаны на принципе «нулевого доверия» к контенту — система считает все файлы потенциально вредоносными и тщательно проверяет содержимое. CDR-стек информационной безопасности разработан специально для противодействия вредоносному ПО, которое генерируется средствами ИИ и отличается непредсказуемостью.

Реальные примеры использования ИИ в кибербезопасности

В таблице ниже перечислены основные варианты использования искусственного интеллекта в кибербезопасности, каждый из которых сопровождается реальным примером, демонстрирующим эффект от применения того или иного решения на основе ИИ.

Направление использования ИИ

Компания (проект)

Страна, отрасль

Эффект/результат

Выявление хакерских угроз и мониторинг аномальной активности в сети

Aviso

Канада, финансовые услуги

73 мгновенных предупреждения об угрозах; расследовано 23 млн событий ИБ.

Обнаружение вредоносного ПО, предотвращение его распространения

CordenPharma

Германия, фармацевтическая промышленность

Выявление и блокировка криптомайнера; предотвращена утечка более 1 ГБ данных.

Предотвращение взлома учетных записей и защита персональных данных

Global Bank

США, финансовые услуги

Количество фишинговых атак с захватом учетных записей (ATO) удалось сократить на 65%.

Выявление внутренних угроз

Golomt Bank

Монголия, финансовые услуги

Сокращение ложных срабатываний на 60%, сокращение времени расследования инцидентов на 40%;

количество оповещений сократилось от 1500 до менее 200 в день.

Безопасность Интернета вещей и операционных технологий

Создание умного города

Неизвестно, строительство и управление городскими территориями

Точность выявления аномалий 96–97%; децентрализованная система обнаружения угроз; реагирование на инциденты в режиме реального времени менее чем за 30 секунд.

ИИ-система реагирования на инциденты и автоматизация центра управления кибербезопасностью (SOC)

DXC Technology

США, ИТ и консалтинг

Сокращение количества оповещений на 60%; ускорение реагирования на 50%; сокращение ручной обработки данных.

Борьба с перегрузкой оповещений

Банк

Одно из государств Персидского залива, финансовые услуги

Сокращение количества оповещений и ложных срабатываний; повышение эффективности SOC.

Аналитика угроз и проактивная защита

IBM

США, ИТ

Проактивное обнаружение угроз;

ранние пре

Безопасность электронной почты и предотвращение фишинга

Google

США, ИТ

Миллионы фишинговых писем в сервисе Gmail ежедневно блокируются с помощью моделей машинного обучения

Модерация контента и выявление угроз в социальных сетях

Facebook*

США, ИТ

Обнаружение вредоносного контента в режиме реального времени; улучшенный анализ трендов.

Выявление финансового мошенничества

Visa

США, финансовые услуги (платежные сервисы)

Оценка рисков и аномалий в транзакциях за миллисекунды. В 2023 году предотвращено 80 млн мошеннических транзакций на сумму 40 млрд долларов.

Выявление аномалий в массивах финансовых данных

Capital One

США, финансовые услуги

Классификация конфиденциальных данных; автоматическое выявление рисков.

Управление уязвимостями и приоритизация исправлений

Государственное агентство

США, государственные организации

Снижение количества фишинговых инцидентов на 90%;

снижение рабочей нагрузки на 50%; автоматические исправления и контроль соответствия требованиям.

Источник: AIMultiple

*Facebook признана экстремистской организацией в России

Таким образом, средства искусственного интеллекта становятся все более грозным и непредсказуемым оружием в руках киберпреступников. При этом запуск атак на основе моделей ИИ не требует высокой квалификации от злоумышленников. Противостоять подобным взломам государственные органы и бизнес могут только путем выстраивания многоступенчатых систем защиты, где искусственный интеллект позволяет не только тщательно отслеживать уязвимости, но и проводить глубокий анализ данных. И одной из ключевых идей для дискуссий является возможность построения эффективной системы защиты информации (подсистемы ИБ) без применения ИИ. Но критерием здесь будет служить практика, статистика инцидентов и расследования их причин в 2026–27 гг.

1e1bf6c183beb8e7e01fbbe804da6779.png
Андрей Арсентьев

Руководитель направления аналитики и специальных проектов ГК InfoWatch

Источник

Возможности рынка
Логотип Large Language Model
Large Language Model Курс (LLM)
$0.0003367
$0.0003367$0.0003367
-2.32%
USD
График цены Large Language Model (LLM) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.