После раскрытия Claude Mythos от Anthropic, анализ предупреждает, что главная угроза ИИ — это скорость и масштаб старых тактик

Опасения по поводу самонаправленных кибератак возросли в этом месяце после того, как Anthropic объявила 7 апреля 2026 года, что их модель Claude Mythos автономно выявляет и эксплуатирует уязвимости нулевого дня во всех основных операционных системах и веб-браузерах, объединяя ошибки в сложные последовательности, пишя браузерный эксплойт и разрабатывая уязвимость для удаленного выполнения кода.
Однако новый анализ утверждает, что более непосредственная опасность выглядит не столько как научная фантастика, а на проблему объёма: генеративный ИИ делает известные атакующие стратегии быстрее, дешевле и доступнее для большего числа операторов. В статье утверждается, что глобальный рост активности с использованием ИИ поразителен, но часто неправильно понимается.
CrowdStrike сообщил о росте числа атак со стороны противников с поддержкой искусственного интеллекта на 89 процентов с 2024 по 2025 год, но большинство из них полагались на знакомые тактики, техники и процедуры, а не на новые методы. С этой точки зрения, основной вклад ИИ сегодня — это эффективность — добавление скорости, громкости и шума — особенно в разведке и доставке.
Согласно анализу, крупные языковые модели способны быстро агрегировать и анализировать информацию из открытого исходного кода, позволяя противникам картировать организации, изучать публично раскрытые уязвимости и выявлять точки входа гораздо быстрее, чем операторы-люди.
Microsoft Threat Intelligence наблюдает, как северокорейские акторы используют крупные языковые модели для исследования уязвимостей и профилирования ценных целей, улучшая понимание технических деталей и векторов атак.
В более широком смысле, злоумышленники начинают сканировать новые уязвимости в течение нескольких минут после объявления о Common Vulnerabilities and Exposures (CVE), часто до того, как защитники прочитают предупреждение, сжимая окно ответа. При оформлении сдвиг — это процесс исполнения, а не изобретения.
Генеративный ИИ может составлять грамматически чистый, контекстно-ориентированный фишинг в масштабах с минимальным участием операторов. Microsoft обнаружила, что цели в 4,5 раза чаще кликают по фишинговым письмам, сгенерированным ИИ, чем на традиционные письма.
Инструменты, рекламируемые на форумах даркнета, заявляют о полной поддержке фишинговых кампаний, а также утекли внутренние чаты участников группы вымогателей Black Basta, обсуждающих использование ChatGPT для написания фишинговых сообщений. Анализ показывает, что не все противники получают одинаковую выгоду.
В то время как государственные акторы, занимающиеся шпионажем — такие как Россия и Китай — внедрили генеративный ИИ для усиления разведки, создания фишингового контента и проведения операций влияния, эти применения представляют собой усовершенствование возможностей, а не фундаментальный сдвиг.
Аргумент заключается в том, что актеры среднего уровня получают наибольшую выгоду, когда ИИ повышает навыки и снижает затраты. Вывод практический: защитники, зацикливающиеся на гипотетических нулевых днях с ИИ, игнорируя ускорение устоявшихся техник, рискуют подготовиться к неправильному бою.
Анализ призывает к пересмотру в сторону быстрого патча, более быстрой сортировки угроз и контрфишинговых мер, адаптированных к миру, где злоумышленники действуют за минуты, а не за дни.
