Les concepts de transparence et d’explicabilité sont essentiels pour instaurer la confiance dans les systèmes d’IA au sein des entreprises. Ils permettent non seulement de comprendre le fonctionnement global du système mais aussi de clarifier les décisions spécifiques, facilitant ainsi le dépannage et le développement.

La majorité des enquêtes qui existent pour comprendre les inquiétudes de l’industrie vis-à-vis de l’intelligence artificielle évoquent la «sécurité». Entre préoccupations liées à la fuite de données sensibles, hallucinations et biais, exploitation via injection de prompts, transparence et explicabilité, on a l’impression que tout dépend de la sécurité quand il s’agit d’IA.

Or, si chacune de ces préoccupations est valide et pertinente, elles sont néanmoins toutes très différentes et la plupart d’entre elles n’ont rien à voir avec la sécurité.

La transparence et l’explicabilité sont deux concepts majeurs à comprendre et à maîtriser pour utiliser l’IA au sein d’une entreprise. Outre le fait qu’ils permettent de faire confiance aux résultats du système, ils sont également utiles pour assurer le dépannage et le débogage des systèmes, surtout pendant leur développement.

Transparence et explicabilité

La transparence et l’explicabilité concernent surtout l’IA étant donné que la plupart des utilisateurs, même dans le secteur des technologies de l’information, ne comprennent pas encore bien comment ces systèmes fonctionnent. Ces deux concepts sont souvent évoqués dans le contexte de l’IA éthique, de l’IA responsable et de la gouvernance de l’IA. Bien qu’ils apparaissent étroitement liés, ils recouvrent des significations distinctes et servent des objectifs différents dans la compréhension et la gestion des systèmes d’IA.

La transparence consiste à diffuser des informations concernant le système d’IA auprès d’un large public. L’explicabilité quant à elle est plus spécifique et a pour but de faire comprendre des décisions ou des résultats particuliers aux utilisateurs, aux développeurs et aux acteurs qui ont besoin de comprendre le fonctionnement du système.

Si la transparence œuvre à renforcer la confiance envers le système dans son ensemble, l’explicabilité vise quant à elle à instiller la confiance dans les résultats spécifiques. En effet, la transparence et l’explicabilité couvrent des éléments différents.

La transparence : citer ses sources

On entend par « transparence en matière d’IA » l’ensemble des informations relatives à la conception, au fonctionnement et aux processus décisionnels d’un système d’IA qui permettent aux acteurs concernés d’en comprendre le fonctionnement. Elle insiste sur la communication claire et la visibilité du fonctionnement des systèmes d’IA, de sorte que les divers intervenants puissent comprendre tous les aspects du système.

Les éléments clés de la transparence de l’IA sont les suivants :

>> Conception et développement : La transparence implique de partager des informations sur la conception, l’architecture et les processus de formation des systèmes d’IA. Cela inclut le type de données utilisées, les algorithmes et les modèles mis en œuvre. Cette transparence est comparable à celle des services financiers, où les fournisseurs expliquent quelles données et quelles pondérations sont utilisées pour déterminer votre éligibilité à un prêt immobilier ou pour établir votre score de crédit par les agences de notation.

>> Données et contributions :Par transparence, on entend préciser les sources et les types de données utilisées pour former et faire fonctionner le système d’IA. Elle concerne également le prétraitement, la transformation ou la multiplication des données appliquées aux données d’entrée. Ce type d’information est comparable aux déclarations de collecte de données. Les entreprises précisent les données qu’elles collectent, qu’elles stockent et qui sont susceptibles d’être partagées avec d’autres.

>> Gouvernance et responsabilité :Communiquer des informations concernant les personnes responsables du développement, du déploiement et de la gouvernance du système d’IA. Cela aide les acteurs à comprendre comment s’articule les différentes responsabilités.

Explicabilité : présentez vos travaux

En matière d’IA, l’explicabilité désigne la capacité à fournir des raisons ou des justifications claires et compréhensibles concernant les décisions, les résultats ou le comportement des systèmes. Elle permet d’expliquer pourquoi une décision particulière a été prise et de faire comprendre les résultats de l’IA aux utilisateurs et aux acteurs concernés.

Les éléments clés de l’explicabilité de l’IA sont les suivants :

>> Justification de la décision : L’explicabilité consiste à expliquer en détail les facteurs et la logique qui ont conduit à une décision ou à un résultat particulier. Elle répond aux questions suivantes : « Pourquoi l’IA a-t-elle pris cette décision ? » et « Quels sont les facteurs qui ont influencé ce résultat ? ». C’est un peu comme une démonstration de géométrie où il faut se baser sur des axiomes comme l’interdépendance, la congruence ou les parallèles. En d’autres termes, si l’IA décide que 2+2=5, elle doit justifier cette décision par une raison valable, comme l’utilisation d’un autre système mathématique ou l’application de l’équation dans un contexte littéraire.

>> Interprétabilité du modèle : L’explicabilité consiste à interpréter les modèles d’IA de sorte que les acteurs concernés puissent comprendre les mécanismes sous-jacents de la prise de décision. Tout le monde ne comprend pas forcément la démarche, et expliquer le calcul sous la forme d’une équation complexe peut donc ne pas suffire. Il existe une grande différence entre le fonctionnement d’un réseau adversarial génératif (GAN) et celui d’un réseau neuronal convolutif (CNN). Ainsi, le choix de l’architecture utilisée est crucial pour l’interprétabilité des modèles d’IA.

>> Intelligibilité pour l’homme : L’explication doit être présentée de manière à être facilement compréhensible pour les humains, non-experts inclus. Les opérations complexes de l’IA doivent donc être décrites de manière simple et claire. On ne peut pas fournir d’explication sous forme hexadécimale ou avec du code. Il faudra utiliser quelque chose que tous les acteurs concernés, juristes, responsables de la conformité et ingénieurs compris puissent comprendre.

Encourager à faire confiance à l’IA

Aucune technologie ne s’impose du jour au lendemain. Toute nouvelle technologie nécessite un certain temps pour être acceptée. Il y a quinze ans, personne ne faisait confiance à la mise à l’échelle est incontournable. Quel que soit le domaine, qu’il s’agisse de résoudre des problèmes mathématiques complexes, de conduire une voiture ou de payer ses factures, il faut du temps pour que les utilisateurs y adhèrent. Expliquer clairement le fonctionnement du système et assurer la transparence du processus peuvent considérablement accélérer l’adoption de nouvelles technologies.

La transparence offre une vision globale du fonctionnement du système d’IA, tandis que l’explicabilité permet de mieux comprendre les raisons derrière les décisions ou résultats spécifiques. Pour que l’IA fonctionne et que les entreprises puissent profiter de ses avantages, un meilleur service client, une meilleure productivité ou encore une prise de décision plus rapide, il est indispensable que ces deux concepts soient réunis.

Et ni l’un ni l’autre ne sont du ressort de la sécurité.
____________________________

Par Lori MacVittie, ingénieur émérite de F5

 

À lire également :

Libérer le potentiel de l’IA

Explicabilité : un atout pour améliorer les relations entre l’humain et l’IA

L’IA générative et l’urgence d’accélérer la transformation numérique…

Gouvernance de l’IA générative : le secteur public face aux défis de l’éthique

Les entreprises devront encadrer leur IA pour se conformer à la réglementation européenne

Transparence et Intégration : les clés d’une entreprise connectée !