Les biais et hallucinations de l’IA exposent les failles structurelles des modèles de langage et des algorithmes modernes. Entre données incomplètes et normes sociétales incrustées, l’équité des décisions algorithmiques est en jeu. Pour éclairer ces sujets, nous avons posé 3 questions clés à Andrew Pery, AI Ethic Evangelist chez ABBYY.

L’intelligence artificielle (IA) s’intègre désormais dans de nombreux aspects de notre quotidien, des recommandations en ligne aux décisions critiques dans la justice, la santé ou encore le financement. Mais cette omniprésence soulève une question cruciale : comment s’assurer que les algorithmes qui guident ces choix soient équitables et respectueux des droits humains ? Les biais et les hallucinations de l’IA représentent des défis majeurs, pouvant perpétuer ou même amplifier les discriminations systémiques présentes dans les données d’entraînement. Ces dérives ne sont pas de simples anomalies techniques, mais des enjeux éthiques et sociétaux majeurs.

Andrew Pery, AI Ethic Evangelist chez ABBYY, partage sa vision sur ces problématiques complexes. Il explore les mécanismes à l’origine des biais dans les modèles d’intelligence artificielle et propose des stratégies pour atténuer ces risques. Il insiste sur l’importance de développer une IA plus responsable, qui minimise les inégalités et respecte les standards éthiques. Cette interview permet d’engager une réflexion essentielle sur les pratiques et les régulations nécessaires pour maîtriser les risques associés à cette technologie révolutionnaire. À travers cette discussion, un objectif commun émerge : garantir que l’IA soit un outil au service de tous, et non une source d’injustice ou d’exclusion.

Qu’est-ce que sont les biais de l’IA et comment se glissent-ils dans les modèles LLM ?

Les modèles d’IA sont entraînés à partir de données générées par des humains et donc enclins à reproduire les biais qui sont les nôtres. Le risque est donc que ces modèles perpétuent des préjugés et entrainent des effets négatifs dans les décisions algorithmiques. L’IA est utilisée dans de nombreux secteurs d’activité et on peut donc imaginer des conséquences dans la vie courante, sur des sujets sensibles tels que la reconnaissance faciale, l’obtention d’emprunts, de logements ou même face à la justice. Pour éviter de tels eccueils, il est nécessaire d’atténuer ces biais, et donc de concevoir des modèles d’IA qui ne discriminent pas injustement certains groupes.

Il existe plusieurs types de biais : Les biais préexistants découlent des normes sociétales et des structures de pouvoir intégrées dans les données d’entraînement. Les biais techniques sont quant à eux issus des limitations algorithmiques ou des erreurs dans le traitement des données et la conception des modèles. Enfin, les biais émergents apparaissent au fil du temps, souvent en raison de l’évolution des interactions humaines avec la technologie et des normes sociales.

Il y a plusieurs échelles en matière d’équité de l’IA. L’équité de groupe vise à garantir des résultats similaires pour des groupes ayant des caractéristiques communes, tandis que l’équité individuelle s’assure que les personnes ayant des profils similaires soient traitées de façon égale. Cependant, des biais historiques dans les données peuvent influencer les résultats s’ils ne sont pas correctement identifiés et corrigés.

Les grands modèles de langage sont entraînés par d’énormes quantités de données provenant majoritairement d’Internet et sont donc particulièrement exposés aux biais sociétaux, notamment ceux liés au genre ou à l’origine ethnique. Leur ampleur est telle que ces modèles peuvent involontairement amplifier des préjugés ou des perceptions inéquitables, et potentiellement les droits des personnes qui en sont victimes.

Les biais de l’IA sont-ils synonymes des hallucinations de l’IA ?

Les hallucinations sont des résultats plausibles, mais factuellement incorrects. Elles se produisent parce qu’un modèle est entraîné à réaliser des prédictions sur la base de probabilités issues de ses données d’entrainement, mais sans avoir accès au contexte ni à des mécanismes intégrés pour le vérifier.

Le biais peut donc être un des facteurs qui contribuent aux hallucinations générées par l’IA. Mais d’autres paramètres entrent en jeu dans le manque de capacité de raisonnement et de compréhension contextuelle des LLM. Il peut s’agir de la complexité du modèle lui-même, de données d’entraînement incomplètes ou encore de lacunes sémantiques.

Il existe des techniques d’ingénierie rapide qui peuvent améliorer la précision des résultats. Mais elles ne sont toutefois pas en mesure de résoudre les problèmes liés aux biais. Des stratégies d’atténuation doivent donc être mises en œuvre pour limiter les résultats négatifs.

Les résultats de l’IA peuvent-ils être exempts de biais ? Quelles sont les stratégies à adopter pour s’assurer que leurs résultats en soient exempts ?

Il est quasiment impossible d’exempter intégralement l’IA de biais. Les modèles d’apprentissage reposent sur des données générées par des humains qui sont souvent elles-mêmes imprégnées de normes sociétales inconscientes et évolutives. Ce qui est considéré comme juste dans un contexte culturel peut ne pas l’être dans un autre, ce qui ajoute encore de la complexité à l’équité des modèles.

Pour minimiser les biais, plusieurs stratégies sont néanmoins recommandées.

1/ L’utilisation de données représentatives intégrant toutes les démographies afin d’éviter les biais liés à des groupes sous-représentés.

2/ L’augmentation et la génération de données pour combler les lacunes de certains groupes qui seraient peu représentés.

3/ L’évaluation régulière de l’équité selon des critères prédéfinis pour détecter et ajuster les biais à un stade précoce et une intervention humaine en cas de dérive.

4/ La transparence et l’explication des décisions d’IA afin d’aider les entreprises à identifier des biais potentiels et à mieux comprendre le comportement des modèles.

5/ L’application de directives éthiques et de conformité telles que définies par des réglementations, comme l’AI Act Européen, assure que l’équité est prise en compte dès la conception. Les audits externes, réalisés par des entités indépendantes, permettent quant à eux d’identifier des biais inconscients qui auraient pu être négligés.

Les entreprises peuvent aussi opter pour des modèles linguistiques plus petits et plus spécifiques pour des applications de moindre portée, ce qui diminue les risques de biais.

Aucune IA n’est parfaite, et les efforts pour éliminer les biais peuvent parfois en créer de nouveaux. Quoi qu’il en soit, l’avenir des modèles repose sur une conformité plus stricte aux réglementations. Cela suppose une évaluation constante des biais et une utilisation responsable des outils d’IA, afin de garantir que leur usage reste digne de confiance.

 

À lire également :

Comment les grandes entreprises technologiques peuvent-elles maîtriser l’empreinte énergétique de l’IA ?

IA éco-responsable : utopie ou réalité prochaine ?

IA Générative et éthique : le dilemme de la gestion des données…

Santé et IA : comment allier innovation et éthique…

Gouvernance de l’IA générative : le secteur public face aux défis de l’éthique