Les biais relatifs à l’intelligence artificielle (IA) vont exploser. Mais seule l’IA impartiale survivra




Dans cinq ans, le nombre de systèmes et d’algorithmes d’IA biaisés augmentera, tout comme cela a été le cas des virus informatiques au tout début. Mais nous traiterons ces dérives avec une approche similaire, à la fois en fournissant des solutions pour maîtriser les biais dans l’intelligence artificielle et en promouvant des systèmes d’intelligence artificielle sans ces biais.

Les systèmes d’IA sont simplement aussi bons que les données avec lesquelles nous les alimentons. Les mauvaises données peuvent contenir des préjugés raciaux, sexistes ou idéologiques implicites. De nombreux systèmes d’IA continueront d’être formés en utilisant de mauvaises données, ce qui constitue un problème permanent. Mais nous pensons que les biais peuvent être maîtrisés et que les systèmes d’IA qui s’y attaqueront auront le plus grand succès.

Alors que les humains et l’intelligence artificielle travaillent de plus en plus ensemble pour prendre des décisions, les chercheurs investiguent des moyens de s’assurer que le biais humain n’affecte pas les données ou les algorithmes utilisés pour éclairer ces décisions.

Les efforts du MIT-IBM Watson AI Lab sur la prospérité partagée s’inspirent des progrès récents de l’intelligence artificielle et de la modélisation cognitive computationnelle. Les approches contractuelles en matière d’éthique, pour décrire les principes que les personnes utilisent dans la prise de décision et déterminer comment les esprits humains les appliquent, vont dans ce sens. L’objectif est de concevoir des machines qui appliquent certaines valeurs et principes humains dans la prise de décision.

Un principe crucial, tant pour les humains que pour les machines, est d’éviter les préjugés et donc d’empêcher la discrimination. Le biais dans un système d’IA se produit principalement dans les données ou dans le modèle algorithmique. Alors que nous travaillons à développer des systèmes d’IA auxquels nous pouvons faire confiance, il est essentiel de développer et de former ces systèmes avec des données non biaisées et de développer des algorithmes qui peuvent être facilement expliqués.

Dans ce but, les chercheurs d’IBM ont développé une méthodologie pour réduire les biais qui peuvent être présents dans un ensemble de données d’apprentissage, de sorte que tout algorithme d’IA qui apprendra de cet ensemble de données perpétuera le moins d’iniquité possible.

Les scientifiques d’IBM ont également mis au point une méthodologie pour tester les systèmes d’IA, même lorsque les données d’entraînement ne sont pas disponibles. Cette recherche propose qu’un système indépendant d’évaluation du biais puisse déterminer l’équité d’un système d’IA. Par exemple, le service d’IA pourrait être impartial et capable de compenser le biais de données (scénario idéal), ou il pourrait juste adopter les propriétés de biaisement apportées par son apprentissage (qui pourrait être résolu par des techniques de débiaisement des données), ou il pourrait même introduire un biais que les données soient impartiales ou non (le pire scénario). L’utilisateur final de l’IA sera en mesure de déterminer la fiabilité de chaque système, en fonction de son niveau de partialité.

Identifier et atténuer les biais dans les systèmes d’IA est essentiel pour établir la confiance entre les humains et les machines qui apprennent. Au fur et à mesure que les systèmes d’IA décèlent, comprennent et soulignent les incohérences humaines dans la prise de décision, ils peuvent également révéler des manières dont nous sommes partiaux, sectaires et biaisés sur le plan cognitif, ce qui nous amène à adopter des points de vue plus impartiaux ou égalitaires.

Dans le processus de reconnaissance de nos préjugés et d’apprentissage aux machines de nos valeurs communes, nous pouvons améliorer plus que l’intelligence artificielle. Nous pouvons simplement nous améliorer.