Après la révélation de Claude Mythos dans Anthropic, une analyse avertit que la menace la plus grande de l’IA est la rapidité et l’ampleur des anciennes tactiques

Les craintes de cyberattaques autodirigées ont augmenté ce mois-ci après qu’Anthropic a annoncé, le 7 avril 2026, que son modèle Claude Mythos identifiait et exploitait de manière autonome les vulnérabilités zero-day dans tous les systèmes d’exploitation et navigateurs web majeurs, enchaînant les bugs en séquences sophistiquées, écrivant un exploit de navigateur et développant un exploit d’exécution de code à distance.
Pourtant, une nouvelle analyse soutient que le danger plus immédiat ressemble moins à de la science-fiction qu’à un problème de volume : l’IA générative rend les manuels d’attaque connus plus rapides, moins coûteux et accessibles à un plus grand nombre d’opérateurs.
L’article soutient que la montée mondiale de l’activité activée par l’IA est frappante mais souvent mal comprise. CrowdStrike a rapporté une augmentation de 89 % des attaques par des adversaires habilités par l’IA entre 2024 et 2025, mais la plupart s’appuyaient sur des tactiques, techniques et procédures familières plutôt que sur des méthodes nouvelles.
Dans cette optique, la principale contribution de l’IA aujourd’hui est l’efficacité — ajoutant vitesse, volume et bruit — notamment en reconnaissance et livraison.
Selon l’analyse, les grands modèles de langage peuvent rapidement agréger et analyser des informations open source, permettant aux adversaires de cartographier les organisations, d’étudier les vulnérabilités publiques et de repérer les points d’entrée bien plus rapidement que les opérateurs humains.
Microsoft Threat Intelligence a observé des acteurs nord-coréens utilisant de grands modèles de langage pour étudier les vulnérabilités publiques et profiler des cibles à forte valeur, améliorant ainsi leur compréhension des détails techniques et des vecteurs d’attaque.
Plus largement, les attaquants commencent désormais à scanner les nouvelles failles révélées quelques minutes après une annonce de vulnérabilités et expositions communes (CVE), souvent avant que les défenseurs n’aient lu l’avis, comprimant ainsi la fenêtre de réponse.
À la livraison, le changement est une exécution plutôt qu’une invention. L’IA générative peut rédiger un phishing grammaticalement clair et sensible au contexte à grande échelle avec une intervention minimale des opérateurs. Microsoft a constaté que les cibles sont 4,5 fois plus susceptibles de cliquer sur des emails de phishing générés par l’IA que sur des emails de phishing traditionnellement élaborés.
Des outils annoncés sur les forums du dark web affirment un support complet pour les campagnes de phishing, et des discussions internes fuitées du groupe de ransomware Black Basta montrent des membres discutant de l’utilisation de ChatGPT pour écrire des messages de phishing.
L’analyse indique que tous les adversaires ne bénéficient pas de manière égale. Bien que les acteurs étatiques-nations engagés dans l’espionnage — tels que la Russie et la Chine — aient adopté l’IA générative pour améliorer la reconnaissance, créer du contenu de phishing et mener des opérations d’influence, ces usages représentent des affinements des capacités plutôt qu’un changement fondamental.
L’argument avance que les acteurs de niveau intermédiaire ont le plus à gagner à mesure que l’IA améliore ses compétences et réduit les coûts. La conclusion est pratique : les défenseurs qui se focalisent sur des zero-days hypothétiques alimentés par l’IA tout en négligeant l’accélération des techniques établies par l’IA risquent de se préparer à un mauvais combat.
L’analyse invite à un recalibrage vers un patching rapide, un triage des menaces plus rapide et des mesures de contre-phishing, adaptées à un monde où les attaquants agissent en quelques minutes, et non en jours.
