Le nouveau risque cyber ne passe plus forcément par une pièce jointe piégée, mais par un simple prompt envoyé à ChatGPT, Copilot ou Gemini. Le Shadow IA prospère dans le navigateur, là où les outils de sécurité traditionnels regardent encore trop peu.

Ces dernières années les grands sujets de la cybersécurité en entreprise ont été la clé USB, l’email ou encore le phishing. Chaque époque a son vecteur de risque dominant, celui qu’on n’a pas encore vraiment appris à surveiller parce qu’il se confond avec un usage légitime, voire indispensable.

Aujourd’hui, ce vecteur est l’IA générative, plus précisément la façon dont les collaborateurs l’utilisent chaque jour, sans que personne ne le voie.

Un angle mort structurel

En deux ans, l’usage de l’IA en entreprise a été multiplié par 61 (source Cyberhaven). Ce chiffre ne reflète pas une adoption organisée, pilotée, gouvernée ; il reflète une réalité de terrain où les équipes utilisent les outils qui les rendent efficaces, avec ou sans validation de la DSI. 82 % des collaborateurs qui ont recours à l’IA le font depuis un compte personnel (source LayerX) et, parmi eux, 48% n’en parlent pas à leur manager (source Microsoft).

Ce n’est pas de la malveillance, uniquement de la productivité, et c’est précisément ce qui rend le sujet si difficile à adresser avec les outils traditionnels.

Car les solutions DLP (Data Loss Prevention) ont été conçues pour le monde d’avant. Elles surveillent les pièces jointes, les clés USB et les emails sortants, des vecteurs d’une autre époque. Mais elles ne voient pas le copier-coller dans un champ texte web ni le trafic HTTPS vers un domaine autorisé ou non.

Le navigateur, une porte d’entrée souvent oubliée

Paradoxalement, le navigateur est devenu l’outil de travail central de la quasi-totalité des collaborateurs, et il reste pourtant le maillon le moins surveillé de la chaîne de sécurité. Environ 70 % des cyberattaques ont aujourd’hui pour point d’entrée le navigateur, mais la plupart des architectures de sécurité le traitent encore comme un canal passif.

Avec l’IA générative, cette lacune devient critique. Il ne s’agit donc plus seulement d’un utilisateur qui télécharge un fichier infecté ou clique sur un lien malveillant. Il s’agit maintenant d’un collaborateur qui colle, dans un champ de saisie parfaitement banal, les spécifications d’un appel d’offres, un mémo RH, un rapport client, une stratégie commerciale. L’intention est innocente mais la conséquence, elle, ne l’est pas.

Interdire ne résout rien

Face à ce constat, la réponse instinctive de nombreuses organisations est d’interdire ChatGPT, de filtrer les domaines IA, et d’ajouter une ligne dans la charte informatique.

Cependant, le blocage n’est pas la meilleure option. Les restrictions sont contournées en quelques secondes depuis un réseau personnel ou un téléphone. De plus, elles privent les équipes d’outils qui les rendent plus efficaces. Une entreprise qui bloque l’IA par défaut ne protège pas ses données, elle se tire une balle dans le pied en termes de compétitivité, tout en conservant l’illusion du contrôle.

Le Shadow AI ne se combat pas avec des interdictions, mais avec de la visibilité et du contrôle à la source.

Protéger sans brider

Une solution efficace consiste à rompre le lien entre ce que l’utilisateur fait dans son navigateur et ce qui transite réellement vers l’extérieur en isolant la session de navigation dans un environnement distant et sécurisé. Concrètement, un collaborateur peut accéder à n’importe quel outil d’IA générative, ChatGPT, Copilot, Gemini, depuis un environnement où la saisie clavier, le copier-coller et les uploads sont contrôlés en temps réel, selon le niveau de sensibilité de la session. La politique de sécurité s’applique de manière transparente, sans friction pour l’utilisateur, sans agent à installer ou navigateur imposé.

Ce n’est pas une restriction déguisée. C’est une façon de rendre l’IA accessible à tous les collaborateurs, y compris dans les environnements les plus sensibles, sans exposer le système d’information.

Le Shadow AI n’est pas un problème de comportement, c’est un problème d’architecture. Tant que le navigateur reste hors du périmètre de sécurité de l’entreprise, toutes les politiques de gouvernance de l’IA resteront des déclarations d’intention.

Les prochaines fuites de données majeures que subiront les organisations ne résulteront probablement pas d’une cyberattaque sophistiquée. Il suffira que les hackers attendent patiemment que leur cible qui cherche à gagner trente secondes sur une reformulation.
____________________________

Par Antoine Damiens, product manager; VirtualBrowser

____________________________

À lire également :

Blackfog chiffre l’ampleur de la Shadow IA

Shadow IA : le nouveau “Shadow IT”…

Shadow IA : comment sécuriser son SI face à une IA invisible…

Shadow Agentic, la suite du Shadow AI & Shadow IT ? .

Quand le Shadow IT rencontre le Shadow AI – le cauchemar des DSI et RSSI