IBM ne commercialisera plus ni ne développera de nouvelles technologies de reconnaissance faciale Watson et invite les autres entreprises américaines à un dialogue autour de l’usage de ces technologies par les forces de l’ordre…

Aveu d’impuissance face à une concurrence plus avancée ou véritablement engagement éthique de l’entreprise ? En l’absence de certitude pour la première hypothèse, c’est donc la seconde que nous retiendrons, quitte à sembler naïfs aux yeux ironiques des esprits critiques.

Arvind Krishna, le nouveau CEO d’IBM a adressé hier une lettre au Congrès américain dans laquelle il affirme qu’IBM ne commercialisera plus ses technologies de reconnaissance faciale Watson et va mettre fin (au moins temporairement) aux développements actuels sur cette technologie.

Une décision prise dans la tempête du, et en soutien au, mouvement « Black Lives Matter » qui secoue les États-Unis et dont les retombées sont devenues internationales. En cause, les biais particulièrement sensibles des IA dans ce domaine. Plusieurs études récentes, notamment celles de Joy Buolamwini et Timnit Gebru, mais aussi celles du NIST, de Comparitech, du MIT ou encore de ACLU montrent que si ces technologies ont effectivement considérablement progressé ces dernières années, elles restent très sensibles aux variations ethniques et démographiques ainsi qu’aux techniques de capture des visages (éclairage, résolution, etc.). La dernière étude du NIST estimait d’ailleurs que les technologies actuelles n’étaient pas assez fiables pour être généralisées.

« IBM s’oppose fermement et ne tolérera pas l’utilisation des technologies de reconnaissance faciale, y compris celles offertes par d’autres fournisseurs, pour la surveillance de masse, le profilage racial, les violations des droits et libertés fondamentaux de la personne, ou tout autre objectif non conforme à nos valeurs et ‘principes de confiance et de transparence’, martèle Krishna dans sa lettre. Nous pensons que le moment est venu d’entamer un dialogue national sur l’opportunité et la manière dont les technologies de reconnaissance faciale doivent être ou non utilisées par les forces de l’ordre ».

Il ajoute par ailleurs que « les fournisseurs et les utilisateurs de solutions IA ont la responsabilité partagée de s’assurer que l’intelligence artificielle est testée pour sa partialité, surtout lorsqu’elle est utilisée par les forces de l’ordre, et que de tels tests de partialité doivent être vérifiés et vérifiables ». Une remarque qui vise directement des solutions comme AWS Rekognition ou encore Clearview AI, utilisées par les forces de l’ordre mais aussi des entreprises privées comme Facebook, et qui sont dans le collimateur des associations de défense des droits de la personne depuis plusieurs mois.

La décision d’IBM n’impacte spécifiquement que la fonctionnalité de reconnaissance faciale de Watson et bien évidemment pas les autres fonctionnalités de « Watson Visual Recognition ». Elle est d’autant plus surprenante qu’il y a à peine un an, IBM avait lancé une vaste expérience d’amélioration des technologies d’analyse faciale en s’appuyant sur une base de données de 100 millions de visages Flickr afin de s’assurer d’une plus grande diversité. Mais Arvind Krishna ne semble pas convaincu par les résultats des investigations de ses équipes de recherche.

Le problème reste toujours le même. Ce n’est pas tant la technologie qui est en cause que la façon dont on l’utilise.

L’usage de la reconnaissance faciale n’est pas uniquement néfaste. Que ce soit pour simplifier le quotidien pour s’authentifier sur son ordinateur ou sur son smartphone ou pour aider à la recherche d’enfants disparus ou kidnappés, elle peut aussi être utile et bénéfique. Microsoft par exemple a publié dès 2018  ses 6 principes dictant ses recherches et l’utilisation de ses IA de reconnaissance faciale.
Parallèlement, de plus en plus de frameworks et de solutions techniques voient le jour pour aider à offrir davantage de transparence et d’équité aux intelligences artificielles (Microsoft Fairlearn Toolkit, IBM AI explainability 360 Toolkit, etc.).
Le débat est en tout cas relancé sur les problématiques de l’éthique biométrique et les biais en IA.

Au passage on notera que le mouvement « Black Lives Matter » impacte tous les grands de la Tech. Apple, Google et Amazon ont ces dernières heures enrichi leurs IA conversationnelles (Siri, OK Google et Alexa) pour adresser les questions des utilisateurs et offrir des réponses avisées aux questions « Do all lives matter ? » et « Do black lives matter ? »…
Reste que les prises de position des grands de la Tech pour soutenir le mouvement « Black Lives Matter », qu’ils s’agissent de Microsoft, Google, Apple ou Amazon, ont été vivement critiquées car jugées opportunistes et hypocrites. Si la décence invite au silence, l’ampleur du mouvement impose forcément aux dirigeants de ces géants de ne pas rester totalement silencieux non plus : leur silence serait jugé aussi coupable que leur prise de position…