L’AI Act adopté par le Parlement européen représente une avancée majeure pour la régulation de l’intelligence artificielle, notamment l’IA générative. En mettant l’accent sur la transparence, la minimisation des biais et la conformité réglementaire, cette législation aspire à établir une IA de confiance et éthique.

L’Union européenne a affirmé sa position sur l’intelligence artificielle, par l’adoption de l’AI Act au Parlement européen. Cette nouvelle règlementation sanctuarise une approche fondée sur l’évaluation des risques pour atteindre le plein potentiel de l’IA.

Elle comble aussi un vide : en 2023, 66% des décideurs publics repoussaient leurs investissements dans l’IA générative en raison du manque de clarté des standards et des régulations.

Opérationnaliser une IA générative de confiance

Cet engagement répond à une attente forte du marché, comme en témoigne la multiplication des expérimentations sur l’IA générative. Or, si 79% des décideurs considèrent la confiance dans l’IA comme un élément majeur de leur stratégie, seuls 25% ont opérationnalisé les principes généraux d’éthique de l’IA (selon une étude IBM).

Dès lors, les questions clés que les ministères doivent se poser pour mettre en œuvre un service public de qualité, conforme aux dispositions réglementaires (notamment RGPD) et aux principes d’éthique de l’action publique, sont les suivantes :

– Comment l’IA a-t-elle été entraînée ?
– Peut-elle détecter et minimiser les biais et les hallucinations ?
– Est-elle transparente et sécurisée ?
– Prend-elle en charge la conformité réglementaire ?
– Peut-elle être adaptée et contextualisée ?

Du risque d’invisibiliser l’IA générative

L’IA générative peut donner l’impression d’agir comme une boîte magique indéchiffrable, surtout lorsqu’elle est appréhendée comme un simple service à consommer. Pour éviter cela, il faut que l’IA soit explicable, éthique et de confiance.

L’explicabilité a pour objet la compréhension des données utilisées pour entraîner et créer le modèle de fondation. Aujourd’hui encore, selon une récente étude, 48% des décideurs considèrent que les décisions prises par l’IA générative ne sont pas suffisamment explicables. Or, il est indispensable qu’un agent public puisse disposer des outils nécessaires pour comprendre le fonctionnement du processus génératif et ainsi exercer pleinement son esprit critique.

L’éthique correspond à la capacité d’une organisation à se protéger contre des modèles d’IA générative qui produisent du contenu biaisé ou irrespectueux des standards. Le biais est un type d’erreur qui peut apparaître dans un grand modèle de langage (LLM) si le contenu généré est calibré par ses données d’entraînement de façon inadéquate affectant ainsi la qualité des réponses.

L’IA générative peut être fiable à condition que les résultats soient formés sur des données organisées, explicables, transparentes et surveillées. Prenons le cas d’une demande de subvention adressée à une personne publique. Si l’assistant d’IA générative recommande son rejet, il est nécessaire pour les agents instructeurs de pouvoir accéder aux LLM employés, à la source des données et à un indicateur de confiance quant aux risques de biais. Face à l’impact de ces décisions sur la vie des citoyens, la gouvernance et la supervision humaine restent essentielles.

Gouvernance by design

En France, les pouvoirs publics soulèvent l’enjeu de la souveraineté de l’IA générative et de la bonne adéquation des modèles de fondation à leurs besoins. Certains LLM sont conçus de façon à être facilement adaptables afin de favoriser leur enrichissement et intégration, mais peuvent présenter des limitations lors du passage à l’échelle. D’autres, entraînés sur des bases de données massives, permettent de générer des résultats de haute qualité mais peuvent échapper à certains impératifs de régulation. Tels quels, ils n’incluent donc pas forcément les principes pourtant essentiels de la gouvernance, caractérisée par la capacité à gérer le cycle de vie de l’IA, maîtriser le risque et être conforme aux réglementations.

Pour le secteur public, deux voies alternatives se dessinent : la première consiste à enrichir et sécuriser les modèles d’IA générative par l’ajout d’une couche de gouvernance agnostique de la plateforme technologique utilisée, la deuxième à privilégier une approche « IA native » intégrant by design les principes de gouvernance et d’éthique dans la conception des projets.
____________________________

Par François Mazella di Bosco, IBM Consulting Associate Partner Secteur Public

 

 

À lire également :

IA Générative et éthique : le dilemme de la gestion des données…

Renforcer les défenses en matière de cybersécurité grâce à l’IA

Intelligences Artificielles : co-construire un environnement technologique plus éthique

L’IA au service de la santé : les données synthétiques peuvent-elles améliorer l’éthique ?