Avec Einstein Copilot, Salesforce combine IA générative et gestion avancée des interactions client, tout en introduisant de nouveaux enjeux de cybersécurité. Assurer un contrôle strict des accès et des permissions, ainsi qu’une analyse continue des risques, est ainsi crucial pour sécuriser cette technologie prometteuse.

Avec l’arrivée de Salesforce Einstein Copilot, l’intelligence artificielle générative promet de transformer en profondeur les interactions des entreprises avec leurs clients, en améliorant considérablement la productivité des équipes commerciales, marketing et service client. Ce nouveau copilote conversationnel s’annonce comme un véritable atout pour optimiser la gestion des tâches quotidiennes, depuis l’analyse des données jusqu’à la création de rapports en langage naturel.

Cependant, comme toute révolution technologique, Einstein Copilot soulève de nouveaux défis en matière de cybersécurité. Il est essentiel pour les entreprises de prendre conscience des risques potentiels et de mettre en place des mesures de protection adéquates afin de garantir que cette nouvelle IA soit un levier de performance et non une porte d’entrée pour des cyberattaques.

L’architecture sécurisée d’Einstein : le Trust Layer comme rempart

Salesforce a introduit l’Einstein Trust Layer, un cadre sécurisé qui garantit que les données client sont protégées. Ce modèle assure que toutes les informations passant par Einstein Copilot sont chiffrées et que les données sensibles, comme les informations personnelles ou financières, sont masquées pour éviter toute exploitation malveillante. Il est également rassurant de constater que Salesforce s’engage à ne pas utiliser les données des clients pour entraîner ses modèles d’IA, ce qui réduit considérablement le risque de fuite ou de vente de données.

Mais, bien que cette infrastructure sécurisée constitue un socle solide, il est crucial de rappeler que la sécurité de Salesforce Einstein Copilot repose sur un modèle de responsabilité partagée. Salesforce assure la sécurité de la plateforme, mais il revient aux entreprises de garantir que leurs données et utilisateurs sont correctement configurés et sécurisés.

Les permissions et la gestion des données : des enjeux critiques

L’une des principales vulnérabilités réside dans les permissions et l’accès aux données. Einstein Copilot s’appuie sur les autorisations de chaque utilisateur pour accéder aux informations et générer des réponses. Si les permissions ne sont pas rigoureusement définies, tout utilisateur pourrait avoir accès à des données sensibles non nécessaires à son travail. Pour éviter cela, il est essentiel de verrouiller les permissions et de définir précisément qui peut accéder à quelles données.

Cette tâche est particulièrement complexe dans de grandes entreprises, où des centaines, voire des milliers de jeux d’autorisations sont en place. La clé réside dans une compréhension fine et une analyse approfondie de ces permissions, ce qui peut représenter un défi considérable pour les équipes de sécurité. C’est ici que des solutions comme la plateforme Varonis entrent en jeu, permettant de simplifier l’analyse des permissions, de détecter les configurations critiques et de gérer les risques liés aux applications tierces.

Des données propres et à jour : la base d’une IA performante

Einstein Copilot est une IA qui s’appuie sur la richesse et la qualité des données internes de l’entreprise pour fournir des réponses pertinentes et éviter les fameuses « hallucinations » des modèles génératifs. Il est donc crucial de s’assurer que les informations exploitées par l’IA sont non seulement sécurisées, mais également à jour, précises et pertinentes. Un nettoyage régulier des données permet non seulement de garantir des réponses de qualité, mais aussi de réduire les risques liés à la gestion de données obsolètes ou incorrectes.

Anticiper les attaques par injection de prompts et autres vulnérabilités

L’adoption d’une IA générative expose également les entreprises à des risques spécifiques, comme les attaques par injection de prompts, où un acteur malveillant pourrait manipuler l’IA pour obtenir des réponses qu’elle ne devrait pas fournir. Il est donc essentiel de définir des garde-fous solides, comme le propose Salesforce avec son Prompt Builder, afin de garantir que les utilisateurs génèrent des requêtes adéquates et respectueuses des règles de sécurité interne.

Se préparer pour une adoption sécurisée d’Einstein Copilot

L’intégration de Salesforce Einstein Copilot représente une opportunité inestimable pour les entreprises. Toutefois, elle doit s’accompagner d’une vigilance accrue en matière de sécurité des données., Les entreprises doivent avoir une vision complète de leur posture de sécurité Salesforce, identifier et corriger les vulnérabilités avant qu’elles ne deviennent des portes d’entrée pour les cyberattaques, et s’assurer que l’IA générative devient un véritable atout dans leur stratégie digitale.
____________________________

Par Jérôme Soyer, Vice-Président Avant-Ventes, Europe de l’Ouest chez Varonis

 

À lire également :

9 enseignements que les DSI doivent retenir de Dreamforce 2024

Des vulnérabilités dans le code Apex pourraient provoquer des pertes de données Salesforce

DSPM et sécurité des données Cloud : Le cas des Entreprises Françaises

Renforcer l’intégrité des données pour sécuriser nos administrations

Microsoft et Salesforce s’affrontent sur le terrain de l’IA générative