Loin de nous l’idée de remplacer l’humain par la machine, l’Intelligence Artificielle trouve aujourd’hui sa légitimité au sein de l’entreprise et les technologies agrémentées de capacités de pointe ne cessent de se démocratiser. Si l’avènement du Big Data justifie à lui seul l’implémentation des nouvelles technologies, cette nouvelle ère pousse également les régulateurs européens et internationaux à s’intéresser à l’encadrement de l’Intelligence Artificielle pour une IA éthique.

Permettre aux technologies de traiter et d’analyser des données confidentielles, certes, mais pas sans la définition d’un cadre éthique pour permettre à l’Homme de garder la main. Selon les prévisions de Gartner, d’ici 2025, 30 % des contrats d’utilisation des technologies et services d’IA intégreront des dispositions spécifiques de transparence et de traçabilité, conçues pour promouvoir une utilisation éthique de l’IA. La transparence est de prime, mais quels risques cherche-t-on à éviter ?

Technologies d’IA, les risques sont-ils réellement mesurés et identifiés par tous ?

Les technologies d’intelligence artificielle constituent un atout majeur pour améliorer la productivité des entreprises, ainsi que leur rentabilité et leurs performances commerciales. Cependant, si l’IA permet incontestablement d’optimiser son entreprise, elle apporte également son lot de risques. Les algorithmes peuvent entraîner des discriminations ou des différences de traitements, des risques inconcevables si les systèmes d’IA sont utilisés par les autorités publiques.
Autre exemple, les systèmes d’IA biométriques à distance, peuvent conduire à un profilage ou à une reconnaissance faciale biaisée, notamment lorsque ses dernières sont utilisées par les forces de l’ordre, ou dans certains secteurs sensibles comme la formation scolaire ou professionnelle, les ressources humaines, les services privés et publics essentiels, etc.
Pour éviter tous conflits, les fournisseurs de systèmes d’IA, tels que les chatbots, doivent intégrer des dispositions liées à la transparence pour informer les utilisateurs qu’ils interagissent avec un système automatisé.

Avec la croissance globale de la data-sphère, les entreprises disposent aujourd’hui de quantités astronomiques de données à exploiter, à traiter et à gérer, qu’elles soient structurées ou non. Dans la mesure où ce phénomène s’élargit de manière exponentielle, les risques d’exposition des données des clients ou des collaborateurs s’amplifient à leur tour. La protection de la vie privée des individus devient alors un défi de taille. En cas de fuite ou de violation des données, les retombées sur la réputation d’une entreprise peuvent être considérables. C’est pourquoi de nombreux organes législatifs adoptent désormais des réglementations qui restreignent la gestion et le traitement des données personnelles.

Créer des conditions favorables à la construction d’une IA plus éthique.

Pour assurer la transparence et la traçabilité des technologies d’IA, il est essentiel de concevoir des systèmes et des environnements de contrôle dédiés à l’ajustement et à la régulation du fonctionnement de l’Intelligence Artificielle. Un environnement sécurisé permet notamment d’anticiper le développement des technologies agrémentées d’IA et ainsi d’identifier et de s’adapter aux risques et biais prépondérants à ces évolutions. Étant donné que l’IA est aussi objective que les données fournies et exploitées, cette dernière est sujette aux biais algorithmiques et peut, par conséquent, commettre des erreurs. Ainsi la transparence et la traçabilité facilitent l’identification et la résolution des problèmes. Grâce à l’action humaine, sur la machine.

L’IA s’immisce dans de nombreux aspects de la vie des individus et des entreprises, et ce développement ne passe pas inaperçu, des efforts sont déployés par les ONG et les gouvernements pour garantir plus d’éthique dans l’IA. C’est le cas, par exemple, avec l’adoption en juin 2021 de la proposition de règlement de la Commission européenne sur l’IA par la CNIL et le Contrôleur européen de la protection des données. Il s’agit ici d’une première étape essentielle pour construire une stratégie numérique européenne cohérente et respectueuse des libertés et droits fondamentaux. Cette décision a été prise dans le but de fournir une clarification du système existant, en spécifiant les dispositifs autorisés et ceux qui ne le sont pas. Elle permettra aux entreprises d’y voir plus clair sur les produits et/ou services autorisés ou non, sans différences d’interprétation selon le secteur ou l’État membre.

Aujourd’hui, les enjeux de régulation pour construire une IA plus éthique ne doivent pas uniquement être l’affaire des régulateurs européens ou internationaux. Pour définir un cadre dans lequel toutes les parties prenantes s’y retrouvent et migrent vers un seul et même objectif, plus de transparence et de clarté pour les individus, il est essentiel d’inviter les entreprises à prendre part à la conversation.

Rome ne s’est pas construite en un jour. L’IA parfaite non plus.
___________________

Par Linda Ameur, Directrice France chez ABBYY.

À lire également :