En fin de semaine dernière, Sunar Pitchai, le CEO de Google postait un article sur le blog de la compagnie, intitulé : « L’intelligence artificielle chez Google : nos principes » résumant la vision de son entreprise sur l’IA.

L’objet de cet article n’était pas simplement de vanter les bienfaits de l’intelligence artificielle et d’énoncer un certain nombre de principes sur la manière dont Google compte pratiquer cet art à la mode, mais aussi et surtout d’éteindre le feu qui sévissait depuis plusieurs semaines parmi un nombre croissant de salariés de Google. Après avoir mentionné quelques exemples très positifs d’utilisations de l’intelligence artificielle, d’applications dont l’une est de prévoir les feux de forêts, Sunar Pitchai montre comment il utilise la communication sur l’IA pour tenter d’éteindre le feu qui brule chez lui.

Le projet Maven : diriger des drones avec de l’IA basée sur des données Open Source

L’affaire remonte à plusieurs mois, depuis qu’une pétition a commencé de circuler parmi les salariés pour demander que Google se retire du projet Maven. Ce projet mis en place et financé par le Pentagone  a pour objectif d’utiliser les technologies d’intelligence artificielle développées par les géants de l’internet (dont Google, Amazon, Microsoft, Linkedin) pour permettre aux drones militaires de mieux reconnaitre les cibles qui leurs sont attribuées et éviter ainsi des « erreurs de tir ».  D’un montant assez modeste (70 millions de dollars pour sa première année) Maven serait intimement lié à un autre programme beaucoup plus vaste de plusieurs milliards de dollars où il s’agit de développer et fournir des services de Cloud au Pentagone, programme visé par quelques concurrents de Google, dont Microsoft et Amazon et probablement IBM.

Dans une interview à la fin de l’année dernière, Eric Schmidt, ancien CEO de Google) qui siège au Defense Innovation Board du Pentagon parlait publiquement du projet Maven connu sous le nom de « Algorithmic Warfare Cross-Functional Team », établi au début 2017 sous la direction du Général de l’armée de l’air Shanahan. « Maven est intéressant disait-il, parce que c’est une application de l’intelligence …….. (Les militaires) l’entrainent avec des données Open Source, ce qui est intéressant. Donc, c’est un autre bel exemple que les militaires ont une nouvelle stratégie d’utiliser les données Open Source pour rendre leurs systèmes plus intelligents et l’un des trucs de l’IA est que vous avez besoin de beaucoup de données pour entrainer ces systèmes. Et il y a toujours plus de données Open Sources que de données secrètes ». Rappelant que la guerre du Vietnam avait été à l’origine des développements de la technologie, il reconnaissait que les militaires pouvaient utiliser « ces technologies pour préserver la sécurité du pays… »

Comme une trainée de poudre chez Google

Une pétition était alors lancée par quelques salariés de la compagnie à destination de son CEO. Ses premiers mots sont « Nous croyons que Google ne doit pas entrer dans des activités de guerre ». Après avoir expliqué la portée et certains aspects techniques du projet Maven, la pétition explique que Google allait rejoindre le rang des sociétés comme Raytheon, General Dynamic, Palantir. Elle se termine ainsi : « Reconnaissant la responsabilité morale et éthique de Google (dont la devise est :  « Don’t be Evil »), et les menaces pour sa réputation, nous demandons que vous : 1- annuliez ce projet immédiatement 2- élaboriez, rendez public et mettez en œuvre une politique claire établissant que ni Google ni ses clients ne construisent jamais de technologies de guerre ». En quelques semaines, la pétition recueillait un grand nombre de signatures (environ 4500 aujourd’hui) certains ingénieurs (une douzaine selon certains sources) auraient démissionné, le tout filtrait dans la presse.

Début juin, Diane Green, CEO de Google Cloud (anciennement CEO de VMware) annonçait en interne que Google ne renouvellerait pas sa participation au projet Maven (dont le budget a été doublé en 2018 et qui se termine en 2019), alors que le Pentagone confirmait en avril dernier sa volonté de créer un « Joint Artificial Intelligence Center », sur le modèle de Maven qui couvrirait toutes les armées américaines et les agences de renseignement. Les concurrents de Google, potentiellement candidats à ce nouveau projet, ne semblent pas rencontrer autant de difficultés en interne. Enfin parallèlement, une lettre ouverte publiée par l’ICRAC (International Committee for Robot Arms Control), en soutient de la pétition de Google, était signé par un millier de chercheurs des universités, dont Thierry Vinograd, l’ancien prof de Larry Page à Stanford.

7 objectifs pour les applications de l’Intelligence artificielle

A la fin de la semaine dernière, Sunar Pitchai publiait son memo sur les principes de l’IA chez Google, venant en complément d’une littérature déjà assez fournie déjà présente sur le site AI de Google. Réaffirmant l’importance de l’intelligence artificielle, le rôle prédominant de la compagnie dans ce domaine, ainsi que l’importance de l’IA dans les développements futures de Google, il affirme 7 objectifs à respecter pour les applications de l’IA. Ces principes, qui restent assez généraux, sont à peu près similaires à des déclarations d’hommes politiques en campagne, c’est-à-dire difficilement et précisément évaluable et hautement interprétables, plus particulièrement dans le climat socio-politique qui règne actuellement aux Etats Unis. Ils s’adressent aux applications de l’Intelligence Artificielle, c’est-à-dire aux usages, qui conduiront les recherches et le développement des produits et impacteront les décisions commerciales de Google. Ce sont :

  • Être socialement profitable
  • Éviter de créer ou de renforcer des biais injustes
  • Être conçues et testé avec un objectif de sécurité
  • Être responsable devant les gens
  • Comporter des principes de privauté
  • Maintenir de hauts standards d’excellence
  • Les mettre à disposition de ceux qui sont d’accord avec ces principes

Ensuite, il précise que Google ne développera pas de technologies qui causent des dommages globaux. « Là où il y a risque de dommage, nous le ferons si seulement nous pensons que le bénéfice est substantiellement supérieur au risque, et nous incorporeront des contraintes de sécurité adéquates. Nous ne développerons par d’armes ou de technologies dont l’objectif est de causer directement ou de faciliter des blessures au gens. Nous n’utiliserons pas de technologie de collecte d’informations qui sont contraires aux lois internationales. Nous ne travaillerons pas sur des technologies qui sont contraires aux droits humains et aux principes des lois internationales. »

Continuer les travaux avec le gouvernement et les militaires

Il termine ainsi : « Nous voulons être clair que même si nous ne développerons pas d’IA pour des armes, nous continueront nos travaux avec le gouvernement et les militaires dans beaucoup d’autres secteurs. Ceci inclue la cybersécurité, le recrutement militaire, la santé des vétérans, la recherche et le sauvetage. » Quel sera l’impact de ce memo ? Sera-t-il suffisant pour étouffer l’incendie qui couve chez Google ? Un certain clivage semble apparaitre entre Google et d’autres compagnies de la Silicon Valley et de l’Ouest Américain dont les structures de management sont porteuses de cultures internes beaucoup plus pragmatiques, aux risques, comme chez Facebook, de provoquer des réactions dans certaines administrations étrangères et chez les régulateurs. Paul Scharre, un ancien du Pentagone et membre du CNAS (Center for a New American Security) indiquait « Il y a un très fort Ethos Libertarien (au sens américain du terme) chez les gens de la technologie et une certaine méfiance sur la manière dont le gouvernement utilise la technologie… et l’IA abandonne rapidement les laboratoires pour aborder la vrai vie… »