Les agents IA ne sont pas de simples assistants: ils prennent des initiatives autonomes, pilotent des workflows, orchestrent des API et interagissent directement avec les clients. Cette autonomie transforme la productivité, mais elle met aussi en lumière un risque majeur: ces identités non humaines opèrent souvent dans lombre, avec des privilèges étendus, échappant aux protocoles classiques de surveillance. Pour un RSSI, plus interrogations se posent: quelles données sensibles ces agents peuvent-ils toucher? Quels tokens ou clés API sont sur‑privilégiés? Et surtout, qui prend la responsabilité quand un agent déraille? Cette absence de visibilité est aujourdhui le facteur de risque central pour les entreprises qui misent sur lIA.

L’exemple de MoltBook, ce réseau social pour agents IA lancé en janvier 2026, illustre parfaitement ce danger. Une mauvaise configuration a exposé plus de 1,6 million de comptes, rendant accessibles publiquement clés et tokens. Des attaquants pouvaient ainsi prendre le contrôle des agents pour publier du contenu, lancer des attaques ou orchestrer des fraudes, jusqu’au vol de crypto-monnaies. C’est la démonstration concrète que les agents et les identités non humaines, mal gérées, deviennent des vecteurs d’attaque puissants. Et ce risque ne se limite pas aux incidents isolés. Selon Gartner, 69 % des entreprises ont constaté ou suspecté l’usage par leurs collaborateurs d’outils GenAI publics interdits par les politiques internes, et d’ici 2030, plus de 40 % d’entre elles pourraient être touchées par des incidents liés au shadow AI non autorisé. L’IA est bel et bien devenue un acteur du système d’information, et comme tout acteur, elle doit être encadrée.

Connaître ses agents sur les plateformes stratégiques

Les entreprises déploient des agents IA dans des environnements officiellement validés tels que Microsoft Copilot, Salesforce Agentforce, AWS Bedrock ou Google Vertex AI. Pourtant, l’autorisation d’usage ne garantit en rien la maîtrise du risque. Dans la pratique, les équipes sécurité ne disposent pas toujours d’une vue exhaustive sur les agents déployés, leurs permissions réelles ou leurs interactions avec les systèmes critiques. Un agent peut avoir été configuré avec des privilèges excessifs pour accélérer son déploiement, ou relier des environnements de production à des environnements de développement sans contrôle formel. Sans inventaire automatisé des agents et de leurs droits, la responsabilité pèse sur la direction sécurité sans que celle-ci ne dispose des moyens de vérification nécessaires. La première exigence consiste donc à transformer les plateformes approuvées en actifs réellement gouvernés, avec une traçabilité claire des responsabilités et des capacités d’action des agents IA.

Lumière sur la shadow IA

Le risque ne se limite pas aux outils validés par la DSI. Une couche invisible se développe parallèlement avec les agents créés sur des plateformes non sanctionnées, les outils d’automatisation internes, les serveurs MCP cachés et autres connecteurs improvisés entre applications SaaS. Cette prolifération alimente une extension silencieuse de la surface d’attaque. Souvent, ces agents fonctionnent grâce à des mécanismes d’autorisation déléguée comme les tokens OAuth. En quelques clics, un collaborateur peut accorder à un agent l’accès à des données sensibles ou à des fonctions critiques. Ce consentement utilisateur, conçu pour fluidifier l’innovation, peut contourner les processus juridiques, de conformité ou d’évaluation des risques. Identifier ces agents, comprendre les accès qu’ils détiennent et les rattacher à une responsabilité humaine claire devient un impératif de gouvernance. On ne peut sécuriser que ce que l’on voit.

Renforcer la couche des entités non-humaines

Un agent IA n’est pas abstrait : il repose sur un ensemble d’identités techniques bien réelles. Clés API, comptes de service, service principals cloud, tokens OAuth, secrets applicatifs ou certificats constituent l’infrastructure qui lui permet de s’authentifier et d’accéder aux ressources. Comme tout utilisateur ou service, il agit au travers de mécanismes d’authentification et d’autorisation. C’est à ce niveau que se concentre le risque. Sécuriser l’IA implique donc une cartographie précise des relations entre l’agent, son créateur, les identités non humaines qui l’exécutent et les applications ou environnements (SaaS, cloud, on-premise) auxquels il accède. L’enjeu n’est pas seulement l’inventaire, mais l’analyse des droits effectifs et des chaînes d’accès indirectes. Cette visibilité permet de détecter des failles structurelles : privilèges excessifs, secrets non renouvelés, tokens persistants, comptes techniques orphelins et absence de séparation entre environnements.  Dans un contexte où les agents peuvent automatiser des actions à grande échelle, ces écarts deviennent des multiplicateurs d’impact. S’appuyer sur des référentiels comme l’OWASP Top 10 pour les identités non humaines aide à prioriser les risques. Mais la clé reste opérationnelle : appliquer le principe du moindre privilège, automatiser la rotation des secrets, organiser des revues d’accès régulières et assurer la traçabilité des actions. Les identités non humaines doivent désormais être gouvernées avec le même niveau d’exigence que les identités humaines.

Transformer la visibilité en action

Seule, la visibilité ne suffit pas : elle doit se traduire en mécanismes de contrôle clairs et opérationnels. Regrouper tous les agents IA et leurs identités techniques dans une plateforme unifiée de gestion des identités permet d’appliquer des politiques cohérentes à l’échelle de l’entreprise. Cette approche aligne humains et non-humains dans un cadre unique de sécurité, réduit les angles morts organisationnels et clarifie les responsabilités. L’IA cesse alors d’être un risque incontrôlé pour devenir un actif stratégique, intégré au dispositif de cybersécurité existant.

Sécuriser les agents ne signifie pas freiner l’innovation : c’est lui donner un cadre fiable. En traitant l’identité comme la colonne vertébrale de l’IA, l’entreprise peut concilier autonomie, performance et maîtrise du risque.
____________________________

Par Xavier Mathis, Country Manager France, OKTA

____________________________

À lire également :

« Une cyberattaque se produit toutes les 5 secondes… »

Maîtriser l’hydre : sécuriser les identités non-humaines et les identités du B2B

Identifiants Active Directory, ransomware et protection de l’identité : le nouveau défi de la cybersécurité…

La sécurité des identités machines à l’ère de l’IA