L’IA agentique n’en est encore qu’à ses débuts. Mais si les organisations veulent tirer parti de sa capacité à agir avec un minimum de supervision, elles doivent en maîtriser les risques. Pour y parvenir, elles peuvent notamment s’appuyer sur une approche Zero Trust.
Depuis le lancement de ChatGPT, il y a trois ans, l’intelligence artificielle générative s’est popularisée. Les innovations qui l’entourent bouleversent progressivement notre quotidien.
Pour preuve, le nouvel agent IA ChatGPT, du leader OpenAI, promet de « gérer les tâches du début à la fin » pour le compte de ses utilisateurs. Une autonomie des systèmes et modèles d’IA qu’il devient nécessaire d’encadrer pour anticiper le risque. Le défi sera de donner aux collaborateurs les moyens d’exploiter cette technologie, sans exposer l’entreprise à un nouveau type de menaces.
Des avancées majeures mais des risques émergents
L’IA agentique séduit grâce à son autonomie et à ces capacités proactives de planification, de raisonnement et d’actions – notamment dans l’accomplissement des tâches les plus complexes. Gartner prévoit d’ailleurs que d’ici 2029, l’IA agentique « résoudra de manière autonome 80 % des problèmes courants liés au service client – sans intervention humaine, ce qui entraînera une réduction de 30 % des coûts opérationnels ».
Cependant, ces capacités qui rendent l’IA agentique si prometteuse aux yeux des entreprises devraient également être considérées comme une potentielle source de risque.
L’IA agentique constitue un nouveau biais d’attaque pour les acteurs malveillants et cela à plusieurs niveaux. Avec un contrôle réduit, des acteurs malveillants pourraient détourner les actions d’un agent IA sans éveiller le moindre soupçon chez les utilisateurs. Et comme ces agents ont en capacité de prendre des décisions aux conséquences irréversibles, par exemple supprimer des fichiers ou envoyer des e-mails à de mauvais destinataires, les dégâts pourraient être considérables si des garde-fous ne sont pas intégrés.
Par ailleurs, la capacité des agents à planifier et à raisonner dans de multiples contextes accroît les surfaces d’attaque potentielles, notamment via des techniques comme l’injection indirecte de prompts. Où il suffit concrètement qu’un agent IA consulte une page web contenant des instructions – potentiellement cachées, obfusquées – afin de manipuler son comportement lors du processus d’inférence du contenu (incluant ces instructions) (cf. étude Trend Micro).
Etant donné leur intégration profonde dans les systèmes IT, les agents IA représentent un risque accru de compromission de comptes ou de données sensibles. De plus, leur aptitude à apprendre des habitudes et préférences des utilisateurs soulève des enjeux majeurs en matière de confidentialité et de protection des données.
L’enjeu d’agir à plusieurs niveaux
Pour relever ces défis, il faut se concentrer sur la gestion des identités et des accès. Il est nécessaire que l’agent se voit attribuer une identité propre ainsi que de limiter ses autorisations à la seule exécution de son travail.
Les agents comme ChatGPT sont polyvalents et capables d’agir sur de multiples systèmes : planification de réunion, envoi d’e-mails, automatisation de process, etc. Cette flexibilité en fait une ressource puissante, mais aussi un vecteur d’attaque supplémentaire. Si un agent est compromis, des droits d’accès trop étendus pourraient permettre à un attaquant de se déplacer facilement dans l’environnement IT de l’organisation, et de commettre ses méfaits à volonté.
Pour améliorer la posture de sécurité d’un écosystème d’agents IA, il serait assez spontané de s’orienter vers une approche traditionnelle orientée utilisateur. Toutefois l’authentification multifactorielle n’offre que trop peu de sécurité additionnelle dans le cadre d’un agent IA compromis. La supervision humaine peut, en revanche, servir de second niveau de vérification, notamment pour les actions sensibles. L’enjeu sera de trouver le bon équilibre entre automatisation et contrôle humain. A trop demander à l’utilisateur de vérifier, il risque de se lasser et d’approuver de manière systématique – au risque de se faire duper.
La compromission des systèmes et modèles d’IA capables d’agir de manière autonome constitue un risque nouveau pour les organisations, qui pourrait mettre en péril leur activité si elles ne sont ni préparées ni équipées. Avec l’adoption d’agents IA, leur modèle de sécurité devra nécessairement évoluer vers une visibilité complète de l’activité des agents. L’enjeu sera de monitorer, à travers un système fiable, les actions des agents et de surveiller tout comportement inhabituel pour pouvoir agir et remédier. Un élément structurant de l’approche Zero Trust qui constitue un atout essentiel tant pour la sécurité que pour la responsabilité de l’entreprise.
____________________________
Par David Kopp, expert cybersécurité – Trend Micro





puis