C’est un secret bien connu gardé des data scientists : Parfois, les bons modèles d’IA sont inutilisés, gaspillés. Les modèles performants d’IA s’avèrent parfois être inutiles, si les Hommes ne croient pas en la fiabilité et en l’efficacité du système. Car les systèmes d’IA inspirent confiance au fur et à mesure de leur utilisation.

C’est en tout cas ce que les experts IA tenteront d’expliquer. Les entreprises qui développent des capacités d’éthique et de gestion des préjugés au sein de leur propre système IA font état d’une plus grande satisfaction et d’une plus grande confiance pour leurs données et leurs cas d’usage. Nous avons mesuré l’éthique de l’IA et les capacités de gestion des préjugés de 12 façons. Les entreprises qui bénéficient d’une confiance élevée à travers ces différentes mesures sont plus susceptibles d’être satisfaites des performances liées aux données et à l’IA. Cette approche vaut pour toutes les mesures d’éthique et de contrôle des préjugés que nous avons pu étudier.

Parmi les faits saillants de nos recherches, les experts IA sont largement conscients que leurs pratiques relatives à la gestion des préjugés doivent être améliorées. Ce constat est généralement similaire au sein des différents pays, mais il varie selon les types de préjugés.

En France, les entreprises semblent être les plus à même d’éviter mauvais raisonnements sous forme de biais de convergence (en laissant de côté les échantillons contrefactuels) ou de biais de participation (en s’assurant que les données constituent un échantillon représentatif de la population étudiée).

Par ailleurs, les entreprises françaises déclarent rencontrer certaines difficultés dans la lecture et la compréhension liés aux résultats d’une IA. Il s’agit évidemment d’un défi crucial à l’échelle mondiale, mais semble être particulièrement proéminent en Europe continentale. Les entreprises françaises sont les moins susceptibles à inciter les collaborateurs pour signaler les biais potentiels ; cette approche est beaucoup plus courante aux États-Unis et au Royaume-Uni.

Selon Adriano Koshiyama, chercheur en informatique à l’University College de Londres et cofondateur de Holistic AI Inc, les entreprises qui ont déployé récemment leurs premiers modèles d’IA peuvent d’ores et déjà commencer par cataloguer l’utilisation/l’usage de l’IA dans l’entreprise. Selon lui, cette stratégie consiste à rattacher le système de catalogage à d’autres processus largement utilisés et adoptés, tels que les évaluations des risques liés à la vie privée ou de la sécurité de l’information. Au fil du temps, la gestion robuste des risques liés à l’IA sera une composante essentielle des nouveaux processus de gestion des risques de l’entreprise.

La confiance est cruciale dans le cadre d’une IA simple, de niveau automatisation. Mais elle est encore plus critique dans le cadre d’une IA avancée, avec des calculs ultra rapides et/ou complexes.

John Bohannon, directeur scientifique de la société californienne de traitement du langage naturel Primer.AI, nomme cette méthode l’IA explicable. « Pour qu’un système d’IA atteigne un niveau de performance suffisant pour générer de la confiance, il faut des systèmes qui aident à le comprendre », explique-t-il. « Il y a une capacité d’explication intégrée. C’est la version la plus sophistiquée d’un système d’IA. C’est très difficile à réaliser et cela ne fonctionnera pas pour toutes les tâches aujourd’hui ». Selon lui, l’IA fonctionnera dans les cas où les experts obtiennent des données de très haute qualité, correctement formatées, d’un volume important, suffisamment diverses et spécifiquement instructives pour le problème que l’IA cherche à résoudre. Cette dernière dimension « instructive » de la qualité des données est la plus difficile à atteindre et nécessite des connaissances commerciales ainsi qu’un sens aigu de l’IA et de la data science.

L’IA autonome est au cœur des enjeux des entreprises. Près des ¾ experts IA souhaitent mettre l’IA à l’échelle de leur entreprise. Néanmoins, seulement 7 % déclarent que la confiance représente un défi majeur pour la mise à l’échelle de l’IA.

Dans un contexte d’incertitudes économiques, la maîtrise des coûts devrait continuer à figurer en tête des préoccupations des entreprises, en particulier avec l’augmentation du coût de la vie, d’une inflation galopante et de la hausse des prix de l’énergie. Le défi de demain pour les entreprises ? Insuffler de la confiance, au même rythme que leurs investissements dans l’IA.

À ce stade, la confiance et les systèmes d’IA responsables deviennent un enjeu prioritaire. Nous considérons la confiance et l’IA éthique et responsable comme des éléments cruciaux pour répondre aux questions de gouvernance actuelles.
___________________

Par Mohit Joshi, Président, Infosys

 

À lire également :

Les avancées technologiques assombrissent le monde de la cybersécurité…

L’expérience client et l’innovation seront les moteurs de l’avenir du secteur de la mobilité

La transformation du secteur santé : une question d’équilibre entre IA et robotique

Low-Code / No-Code : en marche vers une révolution applicative…

Infosys apporte de l’IA dans la transformation numérique des entreprises