Alors que ChatGPT affiche une progression mensuelle de 25% dans les grandes entreprises et que les DSI découvrent les effets néfastes des usages de la « Shadow IA », Netskope ajoute des fonctionnalités de surveillance et gouvernance des IA génératives à sa plateforme SSE.
Par leur facilité d’intégration à tous les processus, leur simplicité d’usage et leurs capacités linguistiques bluffantes, les IA génératives – à commencer par la plus célèbre d’entre elles, ChatGPT – s’infiltrent à très grande vitesse dans les entreprises parfois sans l’aval ni la connaissance des DSI créant un phénomène de « Shadow IA » qui rappelle le « Shadow IT » né de l’adoption massive mais incontrôlée des services SaaS.
Peu, pour ne pas dire pas du tout, formés aux usages et risques de ces IA, les utilisateurs n’hésitent pas à leur demander de coder des fonctionnalités, d’analyser des données ou de générer des résumés de rapports, à partir d’éléments qui peuvent contenir des informations hautement confidentielles ou stratégiques pour l’entreprise. Sans parler, que certains demandent à ces IA de rédiger des fiches produits ou des messages de réseaux sociaux sans tenir compte des tendances à halluciner de ces IA ce qui peut affecter l’image de l’entreprise ou la mettre en porte-à-faux.
« Les entreprises se demandent actuellement si elles doivent bloquer l’accès à ChatGPT et à d’autres applications d’IA générative pour réduire les risques de sécurité, ou en autoriser l’utilisation en vue de bénéficier des gains d’efficacité que ces applications peuvent apporter, entre autres avantages, confie Krishna Narayanaswamy, cofondateur et CTO de Netskope. La mise en œuvre pleinement sécurisée de ces applications constitue un défi majeur pour la protection des données que Netskope est particulièrement en mesure de relever grâce à son positionnement. Nous aidons toutes les entreprises à encourager l’utilisation responsable de ces applications de plus en plus populaires en mettant en place des contrôles de protection des données adaptés en vue de préserver leur sécurité et leur productivité. »
Au sein de sa plateforme Intelligent SSE, Netskope a introduit et adapté plusieurs innovations pour classer, surveiller et contrôler de façon dynamique l’usage des IA génératives au sein de l’entreprise.
Typiquement, un tableau de bord Advanced Analytics affiche les tendances et données spécifiques à ChatGPT et autres IA génératives. De même, l’indice de confiance Netskope Cloud Confidence Index (CCI) classe activement les nouvelles applications d’IA générative et évalue le niveau de risque qu’elles présentent dans le contexte de l’entreprise. L’éditeur a également ajouté une nouvelle catégorie dédiée pour identifier les domaines d’IA génératives et permettre aux équipes IT de configurer des règles de contrôle d’accès et de protection en temps réel.
La solution offre la possibilité de contrôler, d’autoriser ou de bloquer les données sensibles de l’entreprise (telles que du code source) afin qu’elles ne soient pas envoyées à ces IA génératives (qui savent notamment corriger, optimiser ou générer du code informatique). Par ailleurs, la solution présente désormais des messages visuels de coaching spécifiques pour alerter les utilisateurs en temps réel sur l’exposition potentielle des données et d’autres risques à chaque fois qu’ils accèdent aux applications d’IA générative.
Dans un même ordre d’idée, la solution permet de surveiller, ainsi que d’autoriser ou de bloquer les messages et le téléchargement de fichiers vers les chatbots d’IA mais aussi de s’assurer du respect des exigences de conformité réglementaire (RGPD, CCPA, HIPAA, etc.), à l’aide d’un outil de classification avancée des données et d’une détection basée sur l’apprentissage automatique (ML).