Les IA génératives ont envahi la sphère médiatique et s’imposent peu à peu dans le quotidien des utilisateurs, en entreprise comme à la maison. Spectaculaires, elles ne sont néanmoins ni sans défauts, ni sans risques de toutes sortes. Explications…

Alors que ChatGPT compte aujourd’hui des millions d’utilisateurs, des entreprises restent encore à la marge du potentiel technologique qu’offre l’IA générative – davantage préoccupées par les questions juridiques, éthiques, de sécurité et de confidentialité. Je vous livre ici les principales interrogations que suscitent l’IA générative et les éléments de réponse pour mieux l’appréhender.

Droits d’auteur et propriété intellectuelle 

Lorsqu’il s’agit d’IA, la violation de la propriété intellectuelle constitue un véritable risque : des contenus protégés peuvent être utilisés pour former des modèles d’IA générative. En effet, pour les optimiser, ils doivent ingérer une grande quantité de contenus. Les données d’entraînement sont alors souvent récupérées sans autorisation, et les outils de génération de code sont accusés de générer des codes influencés ou tirés de dépôts de codes publics sur le web. La réutilisation de ces codes exige ainsi que les créateurs soient crédités. Restreindre l’accès aux données d’entraînement pour des raisons légales nuit à alors l’innovation.

L’hallucination dans les grands modèles de langage

Lorsque l’IA produit des informations inexactes, voire trompeuses, incompatibles avec les données d’apprentissage, le phénomène est alors appelé « hallucination ». Comme tout modèle de machine learning automatique, certaines erreurs peuvent se glisser au sein des contenus produits par l’IA générative. Les modèles tels que ChatGPT ne sont pas toujours mis à jour en fonction de l’évolution de l’actualité, c’est pourquoi l’éloquence des modèles d’IA générative, peut conduire à créer des informations erronées d’apparence sérieuses – et même dangereuses – si elles sont utilisées à des fins commerciales.

Des Biais au sein l’IA générative 

L’IA générative est entraînée sur la base de données provenant de différentes sources. Par conséquent, des biais peuvent se retrouver dans le contenu généré. Ce dernier peut être sexiste, raciste ou encore diffamatoire et nuire à la réputation d’une entreprise. D’autant plus que dans le cas de l’utilisation de l’IA générative, le contenu produit peut être confondu avec un contenu rédigé par un humain. Il convient donc d’utiliser l’IA avec précaution et discernement. Au sein des entreprises, la réglementation liée à l’IA n’en est encore qu’à ses balbutiements. Il n’existe aucune mesure de modération et donc de protection contre ces biais.

Sécurité et de protection de la vie privée

Les modèles d’IA générative s’entraînent avec une quantité impressionnante de données. Il existe un risque l’utilisation de données personnelles et/ou données confidentielles dans les prompts.
En outre, les systèmes d’IA sont sujets à menaces de sécurité protéiformes : attaque par empoisonnement des données, inférence d’appartenance, ou encore exfiltration de modèle. Les organisations doivent proposer solutions pour lutter contre ces menaces qui conduisent à des manquements au RGPD.

Quelles méthodes pour contenir ces risques ? 

Bien que des systèmes de modération s’intègrent aux grands modèles de langage open source, les entreprises qui les utilisent via des API peuvent mettre en place une couche de sécurité supplémentaire pour contrôler les prompts entrants. Cette solution filtre les IIP sensibles, les entrées liées à la propriété intellectuelle et les autres données confidentielles conformément aux politiques organisationnelles prédéfinies.

Cette couche sert également de garde-fou pour les interfaces de sortie, les données y seront filtrées pour éviter les violations de la propriété intellectuelle et les fuites de données personnelles.

Des vérifications complémentaires sur le contenu d’entrée et de sortie peuvent être réalisées pour détecter la dangerosité et la partialité grâce à la similarité sémantique et contextuelle.

Enfin, dans le cadre des initiatives d’IA responsable, les entreprises peuvent identifier les outils adaptés suivant le cas de figure rencontré. L’objectif est de limiter les biais et d’écarter les défaillances sécuritaires et les risques liés à la violation de propriété intellectuelle. L’IA générative évolue à un rythme frénétique. Cette vigilance doit être impérativement constante.

Bien qu’il existe des problématiques relatives à l’IA générative qui doivent être questionnées par les institutions gouvernementales, les entreprises et les chercheurs, son potentiel technologique est précieux pour les entreprises. Les organisations suffisamment agiles pour l’adopter de manière éthique bénéficieront d’un avantage concurrentiel certain.

Par Balakrishna D. R. (Bali) – Executive Vice President – Global Head AI and Automation and ECS, Infosys 

 

À lire également :

IA générative : Microsoft lance Microsoft 365 Copilot et Business Chat

Microsoft Build 2023 : Windows 11 aussi va intégrer une IA Copilot

Microsoft introduit une IA générative au coeur de Dynamics 365

Google annonce de l’IA générative dans Workspace et le Cloud

Les IA génératives : Un potentiel infini, mais à quel coût de stockage ?

DALL-E 2 : L’IA comme générateur d’Art