Le 1er avril, les Etats-Unis et le Royaume-Uni ratifiaient un accord historique sur l’intelligence artificielle. Les deux pays deviennent ainsi les premiers à coopérer officiellement sur la manière de tester et d’évaluer les risques liés aux nouveaux modèles d’intelligence artificielle. Vers une IA responsable ?

Après l’AI Act européen, le décret publié par Joe Biden et les directives de la Chine, l’IA est décidément au cœur de toutes les politiques internationales. En premier lieu, parce que sa sécurisation interroge. L’IA générative, méconnue il y a encore quelques mois, est devenue une technologie incontournable. A la fois des entreprises et collaborateurs, mais aussi des cybercriminels et fraudeurs. Pour preuve, le NIST (ou National Institute of Standards and Technology) – qui dépend du Ministère du Commerce américain et connu pour ses standards de cybersécurité – s’est penché sur la question. Et a récemment publié un ensemble de mesures pour encadrer l’IA.

Derrière ce nouveau cadre, une intention de fournir trois garanties : traçabilité des données, qualité des informations fournies par la technologie et harmonisation des pratiques.

Gouverner l’IA avec l’ensemble des parties prenantes

Le travail d’analyse des données est un sport d’équipe où chacun joue un rôle déterminant dans le score final. Data scientists, équipes informatiques, analystes des risques, data engineers ou encore responsables d’unités commerciales doivent donc tous être alignés sur la marche à suivre pour utiliser l’IA à bon escient. Lorsque l’IA a fait son entrée dans les entreprises, celles-ci se sont orientées vers des politiques de conduite du changement. En parallèle, elles doivent penser une nouvelle politique de gouvernance, en mettant en place une définition claire des rôles et des responsabilités.

Ce n’est qu’ainsi que les usages de l’IA pourront être adaptés aux besoins individuels comme collectifs. Des structures de responsabilité doivent être mises en place afin que les équipes et les personnes appropriées soient habilitées, responsables et formées à la cartographie, à la mesure et à la gestion des risques liés à l’IA. En parallèle, les projets d’IA doivent être bien définis et documentés afin d’éviter de futures lacunes en matière de connaissances et de garantir la transparence des décisions, des équipes informatiques aux utilisateurs finaux. Utilisation du modèle proposé, utilisateurs finaux, performances attendues, stratégies de résolution des problèmes, incidences négatives potentielles, stratégies de déploiement… La liste des éléments qui doivent être documentés est loin d’être exhaustive, mais doit bel et bien être un impératif.

Cartographier précisément pour créer une IA sans biais

En 2015, Amazon était au cœur de la polémique avec son algorithme de recrutement, jugé “sexiste”. Et pour cause, celui-ci se basait sur les données des précédents recrutements, déjà déséquilibrés car dominés par des hommes, et reproduisait le même schéma. Plus récemment, l’association Jamais Sans Elles lançait une campagne publicitaire s’inspirant des résultats d’images générés par des IA comme Midjourney ou DALL-E. A la requête “Imagine un CEO”, l’IA proposait des profils exclusivement masculins ; la requête “Imagine un(e) secrétaire” donnait lieu à des représentations exclusivement féminines. Acteurs technologiques comme usagers finaux, les entreprises ont donc une responsabilité : celle d’examiner dans quelle mesure les données d’entraînement de modèles représentent la population cible. Si tel n’est pas le cas, le modèle final peut perdre en précision pour des groupes spécifiques, et se révéler préjudiciable.

En outre, l’inclusion intentionnelle ou non de variables relatives aux données de formation peut créer un modèle qui traite chaque groupe différemment. Même lorsque les variables relatives à des catégories protégées sont supprimées des données de formation, les organisations doivent également vérifier si ces données contiennent des variables de substitution. A savoir, des variables qui ont une forte corrélation avec les variables des catégories protégées et qui permettent de les prédire. Par exemple, une variable de substitution bien documentée est le nombre de grossesses antérieures, qui est fortement corrélé avec le sexe d’un individu.

Pour certains cas d’utilisation, ces variables de classe protégée peuvent être des prédicteurs importants et doivent rester dans les données d’apprentissage. C’est le cas notamment dans le domaine de la santé. Les modèles prédisant les risques de santé peuvent inclure des prédicteurs de genre parce que les symptômes peuvent se manifester différemment d’un groupe à l’autre. Par exemple, les différences entre une crise cardiaque chez les hommes et les femmes sont bien documentées. Mais dans d’autres cas, par exemple des modèles visant à déterminer qui devrait bénéficier d’un service ou d’une prestation, cela peut conduire à un résultat discriminant.

De la gouvernance à l’audit final, les entreprises doivent donc faire preuve d’une vigilance accrue et constante vis-à-vis des données exploitées et exploitables. Une telle prudence ne ralentira pas l’innovation. Au contraire. Elle permettra aux entreprises de minimiser les risques liés à l’IA, d’affiner les modèles et, à terme, pourra même leur permettre de réaliser des économies d’échelle sur les coûts d’infrastructure. _____________________________

  Par Charlotte Douette, Cheffe de projet sur la mission Fédération Française de Rugby, SAS

 

À lire également :

Adoption responsable de l’IA Générative en entreprise et les avantages de l’IA Privée…

Santé : Et si l’IA Générative tombait entre de mauvaises mains ?

Intelligence artificielle, gestion des données : les 4 tendances à suivre

IA éco-responsable : utopie ou réalité prochaine ?