Claude Security Code, OpenAI Codex Security, GitHub Taskflow Agent, Google Big Sleep, Terra Portal, Remediator Agent… les IA partent à la chasse aux bugs et vulnérabilités que les testeurs humains n’ont pas réussi à dénicher malgré les années… Et ça marche !
Longtemps, l’idée d’une IA capable de débusquer seule des failles sérieuses dans des logiciels complexes relevait surtout de la démonstration de laboratoire. Mais depuis quelques mois, elle commence à prendre une forme beaucoup plus concrète.
Le signal le plus frappant est venu d’Anthropic : fin février, la jeune pousse de l’IA lançait son Claude Security Code en « research preview ». Lors de son annonce, l’éditeur affirmait que son outil avait déjà débusqué plus de 500 vulnérabilités sévères dans des bases de code open source en production et qui avaient donc jusqu’ici échappé aux yeux humains.
L’éditeur a récidivé cette semaine : dans le cadre d’un travail mené avec Mozilla, Claude Opus 4.6 a découvert 22 vulnérabilités dans Firefox en deux semaines, dont 14 classées à haute sévérité par l’éditeur. Anthropic affirme en outre avoir soumis au total 112 rapports uniques après avoir analysé près de 6 000 fichiers C++, la plupart des correctifs ayant été intégrés à Firefox 148.0. En complément des 22 CVE officiels, la collaboration a donc mis au jour environ 90 bugs supplémentaires (erreurs de logique, crashs) que les outils de test automatisés traditionnels comme le fuzzing n’avaient pas détectés.
Chez Google, c’est l’agent Big Sleep, issu d’une collaboration entre DeepMind et Project Zero, qui incarne cette nouvelle frontière. Lancé fin 2024 sous le nom de Project Naptime, Big Sleep a franchi un cap symbolique en juillet 2025 en identifiant une vulnérabilité critique dans SQLite (CVE-2025-6965, score CVSS de 7.2), une faille de corruption mémoire connue uniquement d’acteurs malveillants qui s’apprêtaient à l’exploiter. L’équipe Google Threat Intelligence Group avait repéré des indices d’une exploitation imminente sans parvenir à localiser la faille elle-même ; Big Sleep, alimenté par ces indicateurs, a isolé la vulnérabilité et permis sa correction avant toute attaque. Depuis, Big Sleep a accéléré : en août 2025, Google a annoncé la découverte de 20 failles dans des projets open source majeurs, dont FFmpeg et ImageMagick. En novembre 2025, l’outil a été crédité par Apple de la découverte de cinq vulnérabilités dans le composant WebKit de Safari, incluant des dépassements de tampon et des corruptions mémoire. Google déploie désormais Big Sleep au service de la sécurisation de projets open source largement utilisés, positionnant explicitement l’IA comme un avantage structurel pour les défenseurs.
OpenAI lance son Codex Security
OpenAI n’est pas en reste. Cette semaine, l’éditeur a lancé Codex Security, un agent de sécurité applicative en accès anticipé pour les abonnés ChatGPT Pro, Enterprise, Business et Edu. L’outil, qui succède au projet interne Aardvark dévoilé en octobre 2025, a scanné plus de 1,2 million de commits sur des dépôts externes lors de sa phase de bêta, identifiant 792 failles critiques et 10 561 failles de haute sévérité. Des vulnérabilités ont été remontées dans des projets de premier plan : OpenSSH, GnuTLS, GOGS, PHP, Chromium, libssh, entre autres. À ce jour, 14 CVE ont été attribués à des découvertes de l’agent.
La différenciation revendiquée par OpenAI porte sur la profondeur contextuelle. Codex Security analyse un dépôt pour en comprendre l’architecture de sécurité, génère un modèle de menaces éditable et spécifique au projet, puis recherche les vulnérabilités en les hiérarchisant selon leur impact potentiel réel. Les résultats sont validés dans des environnements sandboxés avant d’être remontés, ce qui réduit considérablement le bruit des faux positifs, un problème endémique des outils SAST et DAST traditionnels. Selon OpenAI, les alertes non pertinentes ont chuté de 84 % dans certains dépôts, les sévérités surévaluées de plus de 90 %, et les faux positifs de plus de 50 %. L’entreprise a également lancé un programme « Codex for OSS » offrant un accès gratuit aux mainteneurs de projets open source.
GitHub Security Lab : un framework ouvert
Côté Microsoft, c’est via GitHub Security Lab qu’émerge une approche complémentaire. Cette semaine, l’équipe sécurité a en effet publié un framework open source baptisé Taskflow Agent, conçu pour automatiser les audits de sécurité de code à l’aide de LLM.
Contrairement aux outils propriétaires de Google et OpenAI, cette approche mise sur la communauté : les « taskflows », fichiers YAML décrivant des séquences de tâches d’analyse, peuvent être créés, partagés et adaptés par n’importe quel chercheur en sécurité.
Les résultats sont déjà probants. En quelques jours, le framework a déjà identifié plus de 80 vulnérabilités dans 40 dépôts open source, dont une vingtaine déjà publiquement divulguées. Parmi les trouvailles les plus remarquables : une faille dans Rocket.Chat permettant de se connecter comme n’importe quel utilisateur en raison d’un mot-clé « await » manquant dans le code TypeScript, un bug subtil de logique asynchrone que le LLM a identifié en parcourant plusieurs fichiers de code.
L’IA a également découvert des vulnérabilités d’autorisation dans l’application e-commerce Spree, permettant à des utilisateurs non authentifiés d’accéder aux adresses et numéros de téléphone de commandes invités. Ces bugs de logique métier, passés inaperçus pendant des années, illustrent la capacité des LLM à détecter des failles que les scanners traditionnels ne peuvent appréhender.
Le pentesting réinventé par l’IA agentique
Au-delà de l’analyse statique, une nouvelle génération de startups applique l’IA agentique au test d’intrusion en continu. Terra Security, startup basée à New York et Tel Aviv ayant levé 38 millions de dollars au total (dont une série A de 30 millions fin 2025 menée par Felicis), a dévoilé cette semaine son Terra Portal, une application de bureau qui sert de couche d’exécution pour les pentesters. Le principe : des essaims d’agents IA autonomes effectuent la reconnaissance, la cartographie de la surface d’attaque, la génération d’hypothèses et la validation des vulnérabilités, tandis que les experts humains conservent la supervision aux points de décision critiques.
Terra revendique une réduction du cycle découverte-correction de trois mois en moyenne à quelques heures, tout en respectant le seuil de 15 jours de la CISA pour la remédiation des failles critiques. La plateforme, première à obtenir la compétence AWS Security pour la validation de sécurité autonome, intègre deux types d’agents : les « Ambient AI agents » qui gèrent autonomement les tâches de reconnaissance et d’analyse, et les « Copilot AI agents » qui accompagnent les pentesters humains dans les phases d’exploitation contrôlée. Ce modèle hybride permet à un seul pentester de superviser un volume de tests qui nécessitait auparavant une équipe entière.
De la détection à la remédiation automatisée
La détection n’est qu’une moitié du problème. Phoenix Security, éditeur spécialisé dans la gestion de la posture de sécurité applicative (ASPM), pousse la logique un cran plus loin avec des agents IA capables non seulement de prioriser les vulnérabilités, mais de proposer et appliquer directement les correctifs dans le code. Son Remediator Agent, intégré nativement à GitHub, crée automatiquement des pull requests contextualisées en tenant compte de l’analyse de joignabilité, de la déduplication contextuelle et de l’impact métier.
Les résultats affichés par les premiers clients donnent une idée de l’ampleur du changement : ClearBank revendique une réduction de 98 % du bruit sur les vulnérabilités conteneur, Bazaarvoice a éliminé toutes ses vulnérabilités critiques en deux semaines. Phoenix Security a été désignée leader ASPM dans le rapport Latio 2026. Ce passage du paradigme « trouver et rapporter » au paradigme « analyser et corriger » constitue probablement l’évolution la plus structurante pour les équipes DevSecOps.
La convergence de ces initiatives dessine un nouveau paysage de la cybersécurité défensive. Pour les responsables de la sécurité, plusieurs enseignements se dégagent. D’abord, l’IA se révèle particulièrement efficace sur les bugs de logique complexe (contournements d’authentification, fuites de données, erreurs de gestion asynchrone) qui échappent historiquement au fuzzing et aux scanners traditionnels. Ensuite, l’écart entre capacité de détection et capacité d’exploitation reste significatif : l’expérience d’Anthropic, où 4 000 dollars investis à des fins d’attaque n’ont produit que deux exploits plutôt primitifs, suggère que les attaquants ne transformeront pas immédiatement ces outils en armes automatisées. Enfin, la dimension communautaire incarnée par le Taskflow Agent de GitHub montre que la démocratisation de ces outils pourrait, à terme, transformer la recherche de vulnérabilités en un effort plus collectif et continu. Tiendrait-on enfin un début de solution face à la prolifération des vulnérabilités dans nos SI et au stress croissant des RSSI qui en découle ?
____________________________
À lire également :
Cybersécurité : Tenable fait évoluer sa gestion des vulnérabilités grâce à l’IA générative
Claude Code, Cowork, panique boursière : la semaine agitée d’Anthropic
IA agentique et cybersécurité : quand l’autonomie devient à la fois menace et rempart…
5 axes pour bâtir une cybersécurité résiliente à l’ère de l’IA…
Garder une longueur d’avance sur les cyber-adversaires en intégrant l’IA à la sécurité





puis