Tras la revelación de Claude Mythos en Anthropic, el análisis advierte que la mayor amenaza de la IA es la velocidad y la escala de las tácticas antiguas

Los temores a ciberataques autodirigidos aumentaron este mes después de que Anthropic anunciara el 7 de abril de 2026 que su modelo Claude Mythos identificaba y explotaba de forma autónoma vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores web, encadenando errores en secuencias sofisticadas, escribiendo un exploit de navegador y desarrollando un exploit de ejecución remota de código.
Sin embargo, un nuevo análisis sostiene que el peligro más inmediato se parece menos a la ciencia ficción y más a un problema de volumen: la IA generativa está haciendo que los manuales de ataque conocidos sean más rápidos, baratos y accesibles para más operadores.
El artículo sostiene que el aumento global de la actividad habilitada por IA es llamativo, pero a menudo malinterpretado. CrowdStrike reportó un aumento del 89 % en los ataques de adversarios habilitados por IA entre 2024 y 2025, pero la mayoría se basó en tácticas, técnicas y procedimientos conocidos en lugar de métodos novedosos.
Desde esta perspectiva, la principal contribución de la IA hoy en día es la eficiencia—añadiendo velocidad, volumen y ruido—especialmente en reconocimiento y entrega.
Según el análisis, los grandes modelos de lenguaje pueden agregar y analizar rápidamente información de fuentes abiertas, permitiendo a los adversarios cartografiar organizaciones, estudiar vulnerabilidades divulgadas públicamente y detectar puntos de entrada mucho más rápido que los operadores humanos.
Microsoft Threat Intelligence ha observado a actores norcoreanos utilizando grandes modelos de lenguaje para investigar vulnerabilidades públicas y perfilar objetivos de alto valor, mejorando su comprensión de detalles técnicos y vectores de ataque.
De forma más general, los atacantes comienzan ahora a escanear fallos recién revelados a los pocos minutos de un anuncio de Vulnerabilidades y Exposiciones Comunes (CVE), a menudo antes de que los defensores hayan leído el aviso, comprimiendo así la ventana de respuesta.
Al entregar, el cambio es de ejecución, no de invención. La IA generativa puede redactar phishing gramaticalmente limpio y consciente del contexto a gran escala con una intervención mínima de los operadores. Microsoft ha comprobado que los objetivos tienen 4,5 veces más probabilidades de hacer clic en correos electrónicos de phishing generados por IA que en los tradicionalmente elaborados.
Herramientas anunciadas en foros de la dark web afirman tener soporte integral para campañas de phishing, y chats internos filtrados del grupo de ransomware Black Basta muestran a miembros debatiendo el uso de ChatGPT para escribir mensajes de phishing. El análisis indica que no todos los adversarios se benefician por igual.
Aunque los actores estatales dedicados al espionaje—como Rusia y China—han adoptado la IA generativa para mejorar el reconocimiento, crear contenido de phishing y llevar a cabo operaciones de influencia, estos usos representan refinamientos de capacidades más que un cambio fundamental.
El argumento sostiene que los actores de nivel medio son los que más se benefician a medida que la IA sube de nivel en habilidades y reduce costes. La conclusión es práctica: los defensores que se obsesionan con hipotéticos ceros días impulsados por IA mientras descuidan la aceleración de técnicas establecidas por parte de la IA corren el riesgo de prepararse para la batalla equivocada.
El análisis recomienda una recalibración hacia un parche rápido, una triaje de amenazas más rápido y medidas de contraataque al phishing adaptadas a un mundo donde los atacantes actúan en minutos, no en días.
