Les agents IA ne se contentent plus d’assister, ils agissent, orchestrent et décident au cœur du SI. Ce changement de braquet peut muscler la détection et la reprise, ou ouvrir la voie à des attaques plus rapides, plus discrètes et bien plus massives. Quelles sont les priorités des DSI et RSSI pour anticiper les risques agentiques ?

Les agents IA, nouvelle génération de systèmes capables de raisonner et d’agir de manière autonome, deviennent un levier majeur en cybersécurité, déjà intégrés dans la détection des menaces et les opérations de SOC. Ils promettent des gains d’efficacité importants, mais élargissent aussi la surface d’attaque : phishing piloté par l’IA, manipulations adverses, vulnérabilités de la chaîne d’approvisionnement, prolifération des identités machines…

En pratique, les agents IA ne sont ni « bons » ni « mauvais » : ils amplifient l’existant. Leur impact dépendra surtout de la capacité des organisations à les adopter de façon maîtrisée, avec une vision claire de la résilience des données et des systèmes.

Une technologie à double tranchant, au cœur des systèmes métiers

Les agents IA marquent une rupture : ils ne se contentent plus de générer du texte ou du code, ils décomposent un problème, élaborent un plan et exécutent une séquence d’actions. Couplés à des cadres comme le Model Context Protocol (MCP) ou à des connecteurs métiers, ils se branchent directement sur les ERP, les CRM, les data lakes ou les plateformes de sauvegarde.

Ces agents exécutent des processus multi-étapes avec très peu d’intervention humaine. McKinsey & Co. les identifie comme une tendance majeure, avec un fort potentiel de productivité et d’aide à la décision. Mais plus ils sont intégrés au cœur des systèmes, plus l’exposition aux risques augmente mécaniquement.

Un paysage de menaces qui s’élargit et s’automatise

Sur le plan offensif, les agents IA accélèrent des menaces déjà connues et en font émerger de nouvelles. Les cybercriminels exploitent les modèles génératifs pour industrialiser phishing, fraude et écriture de malwares. Avec des agents capables d’apprendre et de s’adapter, on passe à des attaques continues : sondage permanent des systèmes, ajustement des tactiques, changement de vecteurs en fonction des défenses.

En interne, chaque nouvelle intégration via API, plugin ou connecteur étend la chaîne d’approvisionnement numérique et ouvre potentiellement une porte sur des données critiques. Les agents deviennent eux-mêmes des cibles : injections, empoisonnement de données et manipulations visent leur logique décisionnelle et leur pouvoir d’action. La prolifération des identités machines complexifie la gouvernance des accès.

Le Shadow AI aggrave encore la situation : des collaborateurs connectent des agents à des systèmes critiques sans contrôle, provoquant parfois suppressions massives, perturbations de configuration ou exfiltrations involontaires. D’où une question centrale : l’organisation peut-elle réellement revenir rapidement en arrière si un agent, malveillant ou mal paramétré, commet une erreur « à la vitesse de la machine » ?

Un formidable accélérateur de défense… sous conditions

Les agents IA renforcent aussi le camp des défenseurs. Ils sont au cœur d’une nouvelle génération de plateformes de détection et de réponse, capables de repérer des comportements anormaux, de corréler automatiquement les événements, de reconstituer une attaque et de proposer des actions de remédiation adaptées au contexte métier.

Dans les SOC, où la pénurie de talents et le volume d’alertes sont critiques, ils aident à trier et contextualiser les signaux, réduire les faux positifs, simuler des scénarios d’attaque et hiérarchiser les réponses selon l’impact sur l’activité. Pour la résilience des données, certains agents identifient plus vite les données potentiellement compromises, détectent des anomalies dans les sauvegardes, suggèrent le point de restauration le plus pertinent et orchestrent une reprise ciblée sur les systèmes métiers vitaux.

L’enjeu n’est pas de remplacer l’expertise humaine, mais de la repositionner sur l’analyse fine du risque, l’arbitrage métier et la décision en situation de crise.

Quatre priorités pour une sécurité résiliente à l’ère des agents

La première est la visibilité et la contrôlabilité : disposer d’une observabilité fine sur les actions des agents, surtout dans les environnements critiques (production, finance, santé, sauvegarde). Il faut tracer précisément qui fait quoi, quand et sur quelles données, ajuster dynamiquement les droits d’un agent et pouvoir le mettre en pause, le confiner ou revenir en arrière dès qu’un comportement déviant apparaît.

La deuxième concerne la protection résiliente des données. Les agents IA agissent directement sur les informations qui fondent l’activité : ils les lisent, les transforment, les déplacent. Il ne suffit plus de protéger les systèmes ; il faut garantir l’existence de versions immuables et isolées des données, capables de résister à la fois à un ransomware et à une erreur massive orchestrée par un agent. Cela suppose aussi des mécanismes de détection d’anomalies dans les sauvegardes et des scénarios de restauration granulaire, ciblés par application, périmètre ou tenant.

Troisièmement, résilience et sécurité doivent être intégrées dès la conception des usages IA. Il ne s’agit pas d’ajouter une couche a posteriori, mais de penser en amont rôles et privilèges des agents, segmentation prod/test/sandbox, cycle de vie des identités machines et scénarios de défaillance (erreur logique, bug, compromission). Les référentiels existants (NIST, ISO 27001, MITRE, OWASP) fournissent un socle utile, à compléter par une vision opérationnelle de la continuité et de la cyber-reprise : quoi redémarrer, avec quelles données, et dans quel ordre si un agent se trompe à grande vitesse ?

Enfin, la quatrième priorité est humaine. Les agents IA transforment les métiers de la sécurité, de l’infrastructure et de la donnée. Les équipes doivent comprendre les capacités et limites de ces agents, savoir quand leur faire confiance et quand les encadrer. Les responsabilités doivent être clarifiées : qui répond d’une mauvaise décision prise ou exécutée par un agent ? Des exercices de crise intégrant des scénarios IA (agent compromis, décision erronée à grande échelle, exfiltration automatisée) sont nécessaires pour tester la chaîne de décision. Les organisations les plus avancées sont celles où RSSI, DSI, équipes data, métiers et responsables de la continuité d’activité travaillent ensemble sur des scénarios concrets de rupture, intégrant sauvegarde, restauration et redémarrage priorisé.

Trouver le juste équilibre : maîtriser plutôt que subir

Les agents IA peuvent devenir à la fois un puissant accélérateur de protection et une source de risques systémiques inédits. Ils permettront de détecter et de contenir certaines attaques plus vite, mais introduiront de nouveaux modes de défaillance ainsi que des enjeux éthiques et organisationnels.

La différence entre les organisations qui en tireront parti et celles qui s’y perdront sera d’abord organisationnelle : gouvernance, résilience des données, compétences des équipes. Celles qui les traiteront comme une simple automatisation, sans revoir leurs modèles de contrôle, leurs architectures de protection ni leurs scénarios de reprise, risquent d’amplifier leurs vulnérabilités.

Il faut accepter qu’un agent se trompera ou sera détourné tôt ou tard. La vraie question est de savoir si, ce jour-là, votre organisation disposera encore de données protégées, propres et restaurables, et si elle pourra reprendre le contrôle assez vite pour qu’une erreur, même massive, ne soit jamais fatale.
____________________________

Par Bastien Bobe, Field CTO EMEA, Commvault

____________________________

À lire également :

IA agentique et cybersécurité : quand l’autonomie devient à la fois menace et rempart

IA agentique : quand l’autonomie des machines redéfinit durablement le risque numérique

RAG et agents IA : repenser l’architecture de la productivité en entreprise

IA Agentique : un faux ami pour les entreprises

Shadow Agentic, la suite du Shadow AI & Shadow IT ?

Zero Trust : un pilier pour maîtriser les risques croissants liés à l’IA agentique