De nombreuses parties prenantes, à la pointe de la technologie, auraient souhaité un rapport plus engagé. Personne ne remet cependant en cause le contenu proposé. Pour lire une analyse critique (niveau avancé) du rapport vous pouvez vous reporter à l’article d’Olivier Ezratty, blogger indépendant spécialisé en innovation, technologies numériques et fin connaisseur de l’éco-système français (startups, laboratoires de recherche, réseaux d’influences et initiatives type Frenchtech).

Le rapport Villani doit servir de support au gouvernement dans ces choix stratégiques en matière d’intelligence artificielle. Il ne s’agit donc pas d’une présentation des avancées de l’IA. C’est une réflexion réaliste sur la place de la France et de l’Europe dans le combat pour éviter la « cyber-colonisation ». En effet aujourd’hui l’Europe est un acteur mineur face aux mastodontes américain et chinois, et vit sous dépendance des géants du web.

Cet éclairage sur la diffusion généralisée de l’intelligence artificielle a pour but d’attirer l’attention internationale et amorcer la création d’un éco-système local robuste. L’enjeu sous-jacent étant de stopper la fuite des cerveaux et d’inverser la tendance en attirant les talents des zones alentours : Maghreb, Afrique noire, Europe de l’Est.

Ce rapport n’attaque pas frontalement des acteurs déjà bien trop établis pour pouvoir être copiés. Il cherche un positionnement alternatif et plutôt défensif en décrivant :

  • les secteurs d’activités où il est possible et souhaitable de rivaliser : santé, écologie, transports/mobilité, armement/sécurité. Le choix de ces secteurs prioritaires respectent des principes fondamentaux de l’Europe : intérêt général, avantage comparatif vis-à-vis des autres zones du globe et nécessité de l’intervention des états pour structurer ces marchés.
  • l’éco-système à créer pour rester autonome, en s’appuyant sur quatre piliers : le développement des talents, la recherche fondamentale et appliquée, la disponibilité du financement (injection d’1,5 Mia€ sur le quinquennat) et l’ouverture des données pour contrebalancer le pouvoir des géants du web.
  • le positionnement sociétal à adopter pour cultiver une identité régionale en matière d’intelligence artificielle.

Le titre du rapport « Donner un sens à l’intelligence artificielle » est à ce titre très symbolique. Donner un sens, s’entend de 3 manières : donner un cap, une signification, des explications.

Le cap c’est le choix de secteurs stratégiques prioritaires évoqués plus haut. La signification parce que l’intelligence artificielle n’est pas une fin en soi. Elle sera ce qu’on en fera. Elle doit être vécue comme une complémentarité à l’intelligence organique et ne doit pas servir à creuser les inégalités existantes. Enfin donner un sens c’est expliquer et démystifier de manière à ce que la multitude puisse prendre part activement à la mutation du monde.

Pour transformer ces idées en actes, le rapport s’articule autour de 6 thèmes repris ci-après sous forme de questions-clé. Ces thématiques, une fois assemblées, composent un style de vie pour les années à venir. Un « lifestyle » où l’intelligence artificielle est comprise pour ne plus être subie.

Economie : comment peut-on encore éviter d’être dépendants d’acteurs privés géants GAFA et BATX ?

Le rapport ne donne pas les secrets de la création d’un champion européen. Il vise plutôt à faire émerger une population de sociétés de l’IA. Pour jouer un rôle d’accompagnement l’Etat doit être exemplaire en ayant recours dans ces appels d’offre à plus d’IA, et pour cela en comprendre les enjeux. Il doit aussi faciliter les relations public/privé. Pour accélérer sa maturité l’Etat a par exemple lancé des initiatives comme les start ups d’état. Etre mature c’est aussi permettre des assouplissements de règlementation temporaire pour permettre la création de « bacs à sable » de tests qui font primer l’essor des algorithmes à la règlementation.

Le point de départ de l’indépendance économique est de faciliter l’accès à la donnée, cette dernière étant le carburant de toute création d’intelligence artificielle. L’Etat pourrait servir de tiers de confiance pour permettre l’ouverture y compris de certaines données privées pour constituer des jeux de données ultra qualitatifs. Ce meilleur accès à la donnée va de pair avec la souveraineté de la donnée des citoyens européens: on arrête de donner ouvertement nos données personnelles en mettant en place des concepts comme la portabilité de la donnée, un des thèmes centraux du RGPD (règlement général sur la protection des données).

Ensuite il faut rendre plus visibles les acteurs à même de créer de l’intelligence artificielle. Laboratoires de recherche comme startups nous avons le meilleur de ce qui se fait en IA, mais l’omniprésence des GAFA combiné à l’absence de prise de conscience des enjeux font que nos grands groupes font souvent confiance à leurs pires ennemis (concurrentiels) pour créer leurs plateformes IA. Un exemple typique : Décathlon fait reposer sa plateforme big data sur les solutions d’Amazon Web services alors qu’Amazon est le leader mondiale de la vente en ligne.

Des affaires comme celle de Cambridge analytica (fuite de données de 30 millions de membres Facebook) et l’utilisation abusive de données privées peuvent légitimement faire douter sur le cloisonnement entre les activités au sein d’un géant comme Amazon. Même si la donnée de Décathlon n’est pas utilisée directement elle est forcément incluse quelque part dans un dataset qui renseigne sur des données de volume ou sur des usages, pour un meilleur développement des ventes en ligne Amazon. Alors oui, pour aller vite et atteindre la maturité il faut s’appuyer sur les services top qualité offerts par ces géants, mais le chief data officer de Décathlon devrait avoir en tête de débrancher au plus vite les services Amazon Web services. Uber a été longtemps le client n°1 de Google Maps ce qui lui a permis de développer un leadership en gagnant un temps monstrueux sur la partie géolocalisation. Une fois la position établie, le travail a été de trouver une société à acquérir pour s’indépendantiser de Google. Pragmatisme, vitesse de mise en oeuvre, puis indépendance. L’alternative est donc de faire confiance aux solutions développées par les acteurs locaux et l’Etat devrait aider à les référencer.

En marge de ces enjeux globaux de libération de la donnée et de visibilité des acteurs locaux, le rapport conseille de concentrer les efforts sur le développement de 5 secteurs où le rôle de l’Etat sera le plus impactant pour accompagner l’émergence de leaders mondiaux : Santé, Sécurité, Transports/mobilté, Ecologie et Agriculture. La France compte de belles startups dans de nombreux autres secteurs mais cette sélection vise à éviter le saupoudrage sans effet.

Recherche : Comment donner à notre capacité de recherche une place hégémonique ?

« La recherche française est au 1er plan mondial pour ce qui concerne ses chercheurs en mathématiques et en intelligence artificielle, mais elle a du mal à transformer ses avancées scientifiques en applications industrielles et économiques. »

Pour stopper la fuite des cerveaux et attirer des talents étrangers le rapport veut créer un éco-système de recherche sexy, c’est à dire compréhensible, ouvert et dynamique. Pour cela la mesure centrale est la création d’Instituts Interdisciplinaires d’Intelligence artificielle (3IA) au sein des établissements de recherche existants pour fédérer l’effort collectif. Afin de faire de la France une destination attractive, ces établissements pluridisciplinaires, chacun spécialisé sur un thème d’IA, seront des « zones franches » de l’IA avec une réglementation fiscale et sociale allégée. Ils mélangeront chercheurs, étudiants et partenaires du privé porteurs de solutions en IA. Pour rivaliser (un peu) avec les GAFA les salaires des chercheurs en début de carrière seront doublés et les moyens de calculs seront adaptés aux enjeux (mise à disposition de supercalculateurs partagés).

Formation : comment préparer les corps de métiers à travailler en complémentarité avec l ‘Intelligence artificielle ?

Aveu du rapport : nous ne sommes pas préparés aux changements induits par l’IA, qui va toucher l’intégralité des métiers. La phase de transition que nous vivons va être marquée par la disparition et la création de nombreux métiers. La formation continue n’est plus une option. Place à l’action donc. En prenant d’abord collectivement conscience que nous voulons une IA de collaboration, dont le rôle dans chaque métier est de mettre en valeur les fonctions créatives du cerveau humain, ainsi que la dextérité et les capacités sociales de l’Homme. Pour faire face à un contexte d’accélération exponentielle des transformations, l’Etat devrait reprendre en partie la main sur la formation continue : la logique de responsabilisation individuelle actuelle est difficilement applicable quand les références évoluent en permanence. Face au manque d’efficacité de la formation professionnelle dans sa formulation actuelle (complexité des financements, myriades d’acteurs…) un lab public de transformation du travail servira de « tête chercheuse » pour interpréter en temps réel les modifications des métiers et proposer dans la foulée des expérimentations à certaines catégories professionnelles pour en assurer la transition. Point sensible : le financement de la formation professionnelle est actuellement indexé sur la masse salariale alors que la valeur est de plus en plus captée par des acteurs ayant une très faible masse salariale.

En parallèle de la formation continue il faut « multiplier par 3 à horizon 3 ans » le nombre de personnes formées à l’IA, non seulement en augmentant le nombre d’étudiants intégrant les filières déjà créées mais aussi en élargissant la gamme des formations initiales. L’IA ne nécessitent pas simplement des ingénieurs de pointe, mais aussi des professionnels issus de filières courtes pour la maintenance des algorithmes, des juristes pour arbitrer, etc… Ainsi le mastère spécialisé Big Data de l’ESCP Europe a plus vocation à produire des managers et des business analysts que des datascientists, et peut-être demain des marketers qui auront pleinement intégrés le rôle de l’IA dans la segmentation produit ou dans l’interaction après-vente (versioning, maintenance préventive…)

Dommage, le rapport n’aborde pas l’encadrement de l’auto-formation (MOOC) qui est pourtant le moyen le plus rapide de mettre à jour une population sur les nouveaux concepts clés de l’économie.

Ecologie : comment produire une IA en adéquation avec les ressources de la planète ?

A court terme ce n’est pas la partie prioritaire du rapport face à l’urgence de la prise de conscience. Pourtant ce focus écologique a le mérite de rappeler que dans la course à la technologie actuelle nous laissons pas mal de plumes par rapport aux ressources, limitées, de la planète : la valeur créée par le Big Data est à peu près absorbée par le coût d’énergie nécessaire à son développement. A horizon 2040 les ressources de silicium ne suffiront plus à faire face aux besoins de stockage de données. Il faut donc anticiper et inscrire dès à présent ce genre de problématiques aux agendas écologiques. L’Europe est bien placée pour promouvoir cette sensibilisation. Elle est aussi bien placée pour créer des leaders de nouvelles technologies neuromorphiques de semi-conducteurs. Ce n’est pas anodin : les futures générations d’IA reposeront sur de nouveaux algorithmes nécessitant de nouveaux types de hardware. Certains acteurs comme Bruno Maisonnier, CEO d’Anotherbrain (et père du robot français Nao, revendu en 2015 au japonais Softbank) y voient d’ailleurs l’opportunité de rattraper le retard pris sur les GAFA, en se concentrant dès a présent sur les technologies de 3eme génération d’IA. Pour développer une IA plus verte nous devrons aussi nous baser sur du open hardware et du open software, la mutualisation étant source d’économie d’énergie.

Ethique : comment produire une IA qui respecte l’être humain version 2018 ?

L’intelligence artificielle actuelle, ce n’est ni Matrix, ni Her. C’est une IA qui se diffuse par petites touches un peu partout dans notre quotidien : recommandations, réalité virtuelle, automatisation… A priori la plupart des chercheurs s’accordent pour produire une IA complémentaire à l’Homme et non aliénante. Malgré tout, la confiance accordée à l’IA dépendra des résultats qu’elle proposera. Or aujourd’hui deux problématiques se posent quant à son explicabilité et son auditabilité. Il est quasiment impossible de comprendre le pourquoi du résultat émis par un réseau de neurones, technique algorithmique employée dans une des branches de l’IA (deep learning), qui donnent les résultats les plus spectaculaires.

Le niveau d’éthique sera déterminé par la prise de conscience de ceux qui créée les algorithmes, c’est pour cela que la sensibilisation doit intervenir au moment de la formation.

Pour éviter le phénomène boîte noire de l’IA le rapport propose de soutenir la branche de la recherche sur l’explicabilité des algorithmes et de créer des corps d’experts assermentés capables de les certifier : respect des données privées, détection de biais, capacité de débrayage du mode automatique, lisibilité du code…

Démocratie : Comment éviter d’avoir une population bénéficiaire de l’IA et une population spectatrice ?

Rapport Villani : « L’intelligence artificielle ne peut pas être une nouvelle machine à exclure ».

Vladimir Poutine : « Celui qui deviendra le leader de cette sphère sera celui qui dominera le monde »

Ambiance.

La distribution inégale du savoir ou du pouvoir induira le clivage entre ceux qui ont accès et ceux qui n’ont pas accès. Le rapport parle de diffuser l’usage de l’IA dans les champs sociaux en rappelant que les technologies de pointe sont généralement peu diffusées dans ce secteur.

Le manque de mixité dans les filières d’enseignement et dans les sociétés high tech est également pointé du doigt : il faut rappeler que les algorithmes peuvent être biaisés lors de leur création par la sur pondération d’une population dans les jeux de données d’apprentissage. En cela le rapport défend la diversité dans les filières.

Pour conclure, le rapport Villani a le mérite de fixer un cadre. Il nous fait ainsi basculer dans une nouvelle étape essentielle. Nous avons désormais une référence publique sur laquelle débattre et construire ! Etant donné la portée sociétale de l’IA ce rapport aura une portée fondamentale. Dans le fond il adopte une stratégie plutôt défensive avec un positionnement identitaire « AI for humanity ». Evidemment la France et l’Europe nous ne cracherons pas sur un Google européen. Mais en tant qu’outsiders mieux vaut une posture de défense pour rassembler nos forces différenciantes, éviter la fuite des cerveaux, rendre plus visibles nos pépites, appuyer l’interaction recherche fondamentale / applications business, sélectionner les secteurs où l’état a un rôle clé à jouer. Ce passage est indispensable pour fédérer et dialoguer.

Comme le souligne Antoine Petit, nouveau directeur du CNRS et ancien président de l’INRIA, il faudra en revanche veiller à ne pas faire de l’IA éthique pendant que les Etats-Unis et la Chine font de l’IA business.

_______
Olivier Leroy est Data strategist chez PMP et professeur à l’ESCP