Agents IA, accès backend, permissions étendues… L’adoption massive de l’IA générative multiplie les risques de compromission. À mesure que les entreprises déploient des applications d’IA générative, la protection des infrastructures backend devient un enjeu plus critique encore qu’avant. Quelles sont les priorités stratégiques en matière de cybersécurité à mettre en œuvre pour les backends de l’IA?

Selon le récent baromètre européen sur l’intelligence artificielle de Join Forces and Dare, 88 % des entreprises prévoient d’augmenter leurs investissements en Intelligence Artificielle (IA) au cours des 12 prochains mois. Cette statistique démontre bien l’essor actuel de l’IA générative. Les entreprises utilisent également de plus en plus d’applications qui s’en servent ; néanmoins, cette soif d’innovation conduit de nombreux responsables à faire des compromis sur la sécurité. De plus, les cyberattaquants exploitent eux aussi l’IA générative dans leurs activités malveillantes, ce qui leur permet de mener des attaques plus fréquentes, avec un impact potentiel de forte ampleur.

Pour relever ces défis, la sécurisation des applications d’entreprise utilisant l’IA générative nécessite la mise en œuvre de systèmes de contrôle centrés sur la protection des infrastructures informatiques. En effet, ces dernières hébergent les applications et leur donnent accès à de vastes quantités de données internes. L’adoption de certains principes fondamentaux de sécurité sera indispensable pour permettre aux entreprises de déployer leurs applications en toute sérénité.

L’IA évolue vers des agents spécialisés

Après s’être cantonnée à un rôle d’assistant et d’outil de création de contenus, l’IA générative est en passe de produire des agents autonomes capables de prendre des décisions et d’effectuer des actions en leur nom. Ceux-ci sont encore peu utilisés dans les principaux environnements de production, mais de nombreux analystes prévoient leur adoption rapide dans un avenir proche, au vu des avantages qu’ils peuvent procurer aux entreprises. Cette perspective soulève d’importants problèmes de sécurité, notamment en ce qui concerne la gestion des identités machines (agents d’IA), dont les comportements se révèlent parfois imprévisibles.

Avec la montée en puissance des agents d’IA, les entreprises devront faire face à la complexité qu’implique la sécurisation de ces identités à grande échelle. En tête des priorités se trouve l’authentification des agents d’IA auprès de divers systèmes, la gestion et la limitation de leurs permissions et le contrôle de leur cycle de vie afin d’empêcher des agents infiltrés de conserver des accès non nécessaires. En outre, les entreprises devront vérifier que les agents d’IA remplissent les fonctions prévues pour les services qui les emploient.

Les bonnes pratiques à adopter pour intégrer les agents d’IA dans les systèmes d’entreprise en toute sécurité se dégageront progressivement au fil de l’évolution de ces technologies. Néanmoins, la sécurisation de l’infrastructure backend, sur laquelle reposent les implémentations d’AI générative, fait office de prérequis nécessaire avant toute exécution d’agents d’IA sur une plateforme.

De nouveaux défis à relever

Sécuriser les technologies comme l’IA générative représente un défi conséquent, au vu de la multiplication actuelle des nouveaux types de services. Néanmoins, comme dans toute période d’intense innovation, les contrôles et les pratiques de sécurité doivent constamment s’adapter pour maîtriser ces outils dès leur implémentation. En effet, les applications pilotées par l’IA générative reposent sur des systèmes et des bases de données sous-jacents, ce qui expose les entreprises les utilisant à des attaques potentiellement dévastatrices sans une solide infrastructure de sécurité.

De nombreuses identités requièrent un accès au backend, et chacune représente une cible privilégiée pour les hackers, car les usurpations d’identité restent la principale méthode utilisée pour accéder de façon illicite à des systèmes et des données sensibles. Les entreprises doivent donc impérativement sécuriser ces identités, leurs rôles et leurs permissions. Pour ce faire, elles peuvent s’appuyer sur les mêmes bonnes pratiques que pour protéger d’autres environnements, en particulier les infrastructures cloud, où la plupart des composants d’IA générative seront déployés.

Les différentes identités bénéficient de niveaux élevés de privilèges dans l’infrastructure qui héberge les applications d’IA générative. Tout cas d’usurpation de ces identités et de contournement du mécanisme d’authentification ouvrira une énorme surface d’attaque et de multiples accès à un acteur malveillant.

Des systèmes de contrôle efficaces pour la sécurité des identités

Les utilisateurs disposant de privilèges élevés ne se limitent pas aux équipes IT et aux spécialistes chargés de l’exploitation du cloud qui mettent en place et gèrent l’infrastructure et les accès. Ils comprennent aussi notamment les utilisateurs professionnels chargés d’analyser les tendances dans les données, d’apporter leur expertise et de fournir des validations. Les experts en données possèdent également souvent des niveaux de privilèges élevés, pour développer des modèles, préparer des ensembles de données et les analyser. Les développeurs et ingénieurs DevOps, qui gèrent les bases de données et, avec les équipes IT, sont responsables de la mise en place et de la mise à niveau de l’infrastructure backend, se trouvent dans une situation similaire.

Une identité de développeur usurpée peut accorder à un hacker un accès à des privilèges en lecture et en écriture à des référentiels de code, à des fonctions centrales d’administration de l’infrastructure cloud et à des données confidentielles de l’entreprise.

De plus, l’infrastructure de l’IA générative contient un très grand nombre d’identités machines qui permettent aux systèmes, aux applications et aux scripts d’accéder aux ressources. Ces dernières permettent de traiter les données, et de mettre en œuvre des contrôles d’accès et de sécurité, par exemple. La plupart des environnements informatiques et cloud modernes compte d’ailleurs plus d’identités machines que d’humaines.

Face à de tels enjeux, les entreprises doivent appliquer une politique Zero Trust qui part déjà du principe que des tentatives d’intrusion se produiront. Les contrôles de sécurité doivent dépasser le cadre de l’authentification et des systèmes basés sur les rôles (RBAC) afin de s’assurer qu’un compte compromis ne donne pas lieu à l’ouverture d’une large surface d’attaque.

Pour planifier leur approche de la mise en œuvre des contrôles de sécurité et des privilèges, les organisations peuvent anticiper que les projets liés à l’IA générative bénéficieront d’une grande visibilité en leur sein. Or, les équipes chargées du développement perçoivent parfois ces contrôles de sécurité comme des obstacles, et cette complexité augmente en raison de la nécessité de sécuriser de nombreuses identités aux profils disparates, chacune nécessitant différents niveaux d’accès et utilisant des outils et interfaces spécifiques. En conséquence de quoi, les contrôles appliqués doivent se montrer évolutifs et adaptés à l’expérience utilisateur, tout en n’ayant pas d’incidence sur leur productivité et leurs performances.

Sécuriser l’infrastructure backend des applications exploitant l’IA générative représente un défi de taille pour toutes les entreprises qui les utilisent. Cela touche une quantité très vaste d’identités, surtout machines, et nécessite une stratégie de défense équilibrée, efficace, mais aussi facile d’utilisation. Néanmoins, les entreprises qui se confronteront directement à cet enjeu et qui en feront un pilier central de leur système de sécurité, en y investissant le temps et les ressources nécessaires, assureront non seulement leur présent mais prépareront également un futur serein.
____________________________

Par Yuval Moss, VP Solutions, Global Strategic Partners chez CyberArk

 

À lire également :

Réussir l’adoption de l’IA générative…

Les identités machines, au cœur des stratégies Zero Trust…

En pâtisserie et en cybersécurité, toutes les couches sont essentielles !

L’IA, outil des cybercriminels dans de nouveaux types d’attaques…

Le mythe moderne de l’administrateur réseau et des skeleton keys…