Les solutions de cloud privé offrent aux entreprises un équilibre stratégique entre efficacité opérationnelle et protection des données. Grâce à des techniques avancées de désidentification et des garde-fous robustes, ces systèmes garantissent un support client précis, vitaminé à l’IA, tout en respectant des normes strictes de confidentialité.
Les outils d’IA générative (GenAI) révolutionnent les opérations des entreprises, offrant la capacité d’augmenter rapidement l’efficacité et la résolution des problèmes complexes. Cependant, ce potentiel excitant s’accompagne d’un défi significatif : la confidentialité des données.
En mars, un conglomérat coréen a levé une interdiction sur l’utilisation de GenAI, pour la rétablir quelques semaines plus tard après que des employés ont partagé des informations internes sensibles, y compris du code propriétaire et un enregistrement de réunion selon Siladitya Ray, journaliste chez Forbes. Cet incident montre que, bien que les organisations cherchent à exploiter l’IA pour augmenter la productivité, elles doivent simultanément gérer et contrôler les risques de fuite de données.
Pour éviter des situations comme celle-ci tout en utilisant des technologies d’IA avancées, les fournisseurs de solutions de cloud privé ont mis en œuvre des techniques de désidentification complètes et des garde-fous minutieux dans leur flux de travail. Cela garantit une gestion responsable des informations des clients et maintient des normes élevées de sécurité et de confidentialité des données.
Réaliser la désidentification dans un environnement conforme au RGPD
Les fournisseurs de solutions de cloud privé ont développé des systèmes de génération augmentée par récupération (RAG) pour améliorer l’efficacité et la précision de leur support technique. Ils ont également construit des bases de données de cas de support accrédités de l’année écoulée, qui fournissent des informations à jour spécifiques aux produits et solutions, approuvées par des ingénieurs de support technique professionnels.
Lorsqu’une nouvelle demande est reçue, le système RAG analyse la question du client et récupère des résolutions pertinentes de la base de données, ce qui entraîne des réponses de meilleure qualité par rapport à celles générées par GenAI qui sont formées sur des données publiques.
Ce système est construit sur la base de la protection de la confidentialité des clients avec un mécanisme de désidentification complet qui garantit que toutes les données des cas passés et des nouveaux tickets reçus sont anonymisées avant d’être utilisées :
– les expressions régulières (Regex) sont utilisées pour identifier des motifs comme les e-mails et les numéros de téléphone sur les tickets de support .
– la reconnaissance d’entités nommées (NER) avec traitement du langage naturel est déployée pour détecter des entités en comprenant leur contexte.
– la validation par somme de contrôle est ensuite utilisée pour garantir l’exactitude de ces motifs.
– les mots contextuels sont analysés pour augmenter la confiance de détection, en tenant compte du texte environnant.
– les diverses techniques d’anonymisation sécurisent les informations sensibles détectées.
Le plus important, ce processus de désidentification complet est effectué dans un environnement conforme au RGPD, garantissant une conformité réglementaire complète et une anonymisation des données.
Prévenir les sorties nuisibles, biaisées ou autrement indésirables avec des garde-fous
Après le retraitement pour la désidentification, toutes les réponses générées par l’IA passent par deux garde-fous dans le système pour des vérifications de politique afin de prévenir toute divulgation accidentelle d’informations sensibles ou de conseils potentiellement nuisibles.
– Le premier garde-fou vérifie les violations de politique interne ou tout risque de perte de données pour les utilisateurs. Par exemple, si un ticket demande des fichiers d’installation, des versions de DSM ou d’applications qui pourraient affecter les environnements existants des utilisateurs, une assistance pour les problèmes de vulnérabilités et d’expositions communes (CVE), ou des références à d’autres tickets de support, le système arrête de répondre et fournit un résumé des principaux facteurs guidant la décision à l’ingénieur de support technique pour une éventuelle escalade.
– Le second garde-fou garantit que les réponses générées ne fournissent pas d’informations sensibles telles que des commandes de console, des détails d’accès à distance, ou d’autres données contextuellement exactes qui peuvent être indisponibles ou inappropriées dans certains scénarios. Après avoir passé ce garde-fou, le système décide finalement de répondre automatiquement ou de transmettre le ticket au personnel de support pour examen.
Ce flux de travail de support automatisé basé sur l’IA a considérablement amélioré la précision et la pertinence des réponses, améliorant les temps de réponse de vingt fois. En mettant en œuvre des processus de désidentification rigoureux et des garde-fous robustes, les fournisseurs de solutions de cloud privé garantissent la confidentialité des données et respectent des protocoles de confidentialité stricts.
Grâce à leur expérience dans le développement de systèmes de support client basés sur l’IA, les fournisseurs de solutions de cloud privé ont pleinement réalisé que, bien que l’IA ait des capacités puissantes de résolution de problèmes, elle doit être soigneusement contrôlée par des mécanismes de contrôle et de révision et révisées pour garantir un équilibre entre efficacité et confidentialité. À l’avenir, ces fournisseurs maintiendront leurs engagements en faveur de la confidentialité et exploiteront le potentiel de l’IA tout en protégeant les données précieuses des clients.
_______________________________________
Par Marc Lenoble, Key Account Manager, Public Sector chez Synology