Após a revelação de Claude Mythos na Anthropic, análises alertam que a maior ameaça da IA é a velocidade e a escala das antigas táticas

Os temores de ataques cibernéticos autodirigidos aumentaram este mês após a Anthropic anunciar, em 7 de abril de 2026, que seu modelo Claude Mythos identificou e explorou de forma autônoma vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores web, encadeando bugs em sequências sofisticadas, escrevendo um exploit de navegador e desenvolvendo um exploit de execução remota de código.
No entanto, uma nova análise argumenta que o perigo mais imediato parece menos ficção científica e mais um problema de volume: a IA generativa está tornando manuais de ataque conhecidos mais rápidos, baratos e acessíveis para mais operadores. O artigo sustenta que o aumento global da atividade habilitada por IA é marcante, mas frequentemente mal compreendido.
O CrowdStrike relatou um aumento de 89% nos ataques de adversários habilitados por IA de 2024 para 2025, mas a maioria dependeu de táticas, técnicas e procedimentos familiares em vez de métodos inovadores. Nessa visão, a principal contribuição da IA hoje é a eficiência — adicionando velocidade, volume e ruído — especialmente em reconhecimento e entrega.
De acordo com a análise, grandes modelos de linguagem podem agregar e analisar rapidamente informações de código aberto, permitindo que adversários mapeem organizações, estudem vulnerabilidades divulgadas publicamente e identifiquem pontos de entrada muito mais rápido do que operadores humanos.
A Microsoft Threat Intelligence observou atores norte-coreanos usando grandes modelos de linguagem para pesquisar vulnerabilidades públicas e perfilar alvos de alto valor, melhorando sua compreensão de detalhes técnicos e vetores de ataque.
De forma mais ampla, os atacantes agora começam a escanear falhas recém-reveladas minutos após um anúncio de Vulnerabilidades e Exposições Comuns (CVE), muitas vezes antes dos defensores terem lido o aviso, comprimindo a janela de resposta. No momento da entrega, a mudança é de execução, não de invenção.
A IA generativa pode elaborar phishing grammaticalmente limpo e consciente do contexto em larga escala, com entrada mínima do operador. A Microsoft descobriu que os alvos têm 4,5 vezes mais probabilidade de clicar em e-mails de phishing gerados por IA do que em e-mails de phishing criados de forma tradicional.
Ferramentas anunciadas em fóruns da dark web afirmam suporte completo para campanhas de phishing, e chats internos vazados do grupo de ransomware Black Basta mostram membros discutindo o uso do ChatGPT para escrever mensagens de phishing. A análise diz que nem todos os adversários se beneficiam igualmente.
Embora atores estatais envolvidos em espionagem — como Rússia e China — tenham adotado IA generativa para aprimorar o reconhecimento, criar conteúdo de phishing e conduzir operações de influência, esses usos representam refinamentos nas capacidades, e não uma mudança fundamental.
O argumento defende que atores de médio porte têm mais a ganhar à medida que a IA evolui habilidades e reduz custos. A conclusão é prática: defensores que se fixam em hipotéticos zero-days movidos por IA enquanto negligenciam a aceleração das técnicas já estabelecidas correm o risco de se preparar para a luta errada.
A análise sugere uma recalibração em direção a patches rápidos, triagem mais rápida de ameaças e medidas de contra-phishing adaptadas a um mundo onde os atacantes agem em minutos, não em dias.
