Plus de 700 scientifiques et chefs d’entreprise de renommée mondiale – dont l’astrophysicien Stephen Hawking et le fondateur de SpaceX Elon Musk – viennent de publier un document visant à définir les priorités de la recherche dans le domaine de l’intelligence artificielle.

« Je suis désolé Dave, je ne crois pas pouvoir faire ça (…)
Je sais que Frank et toi avez l’intention de me déconnecter. C’est quelque chose que je ne peux vous laisser faire (…)
Écoutez Dave, je vois que vous êtes vraiment très affecté par cet incident. Et sincèrement je pense que vous devriez reprendre vos esprits, absorber un tranquillisant, et essayer de faire le point (…) »

Tout le monde a en tête le dialogue du film de Stanley Kubrick tourné en 1968 entre l’astronaute Dave et la machine HAL 9000 qui se rebelle et essaye d’empêcher l’intervention humaine, en l’occurrence visant à débrancher l’ordinateur pour reprendre le contrôle manuel. Scène évidemment futuriste et qui contredisait le système organisé par les trois lois de la robotique d’Isaac Asimov[1] mais qui pourrait bien avoir de nombreuses déclinaisons dans notre vie d’aujourd’hui. On pourrait imaginer par exemple qu’un système de pilotage automatique d’un avion décide que le pilote ne prenne pas les bonnes décisions et l’empêche ainsi de reprendre le contrôle.

Les trois lois de la robotique d’Isaac Asimov exposées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942) :
Première loi : Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
Deuxième loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
Troisième loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Des dizaines de scientifiques viennent de publier une lettre ouverte (An Open Letter – FLI – Future of Life Institute) et un article (Research priorities for robust and benecial articial intelligence) définissant les priorités de recherche pour une intelligence artificielle robuste et qui bénéficie aux hommes. « Il existe désormais un large consensus selon lequel les recherches dans l’intelligence artificielle continuent à progresser et que l’impact sur la société va probablement s’accroître », considèrent les signataires du document faisant état de progrès comme « éradiquer des maladies et la pauvreté ». Dans un tel contexte, « il est donc crucial d’étudier comme la société peut bénéficier des avancées mais aussi comment éviter les risques », poursuivent-ils.

Les recherches en IA explique la lettre a exploré de nombreux problèmes et retenu différentes approches mais ces 20 dernières années elle s’est concentré sur la construction d’agents / systèmes intelligents capables de percevoir leur environnement et d’agir. Dans ce contexte, intelligence faisait plutôt référence à des notions statistiques et de rationalités permettant de prendre de bonnes décisions ou inférence. Combiné aux capacités de traitement considérables des ordinateurs d’aujourd’hui, du volume de données disponibles, les systèmes informatiques ont fait d’énormes progrès dans des domaines comme la reconnaissance du langage (utilisé dans Watson d’IBM), le classement d’images, les véhicules autonomes, les machines de traduction, la locomotion assistée et les systèmes de questions-réponses automatisés.

Mais pour les auteurs, il est important de d’orienter les recherches à court terme « pour récolter les bénéficies tout en minimisant les risques » et l’article liste quelques domaines dans lesquels il serait judicieux d’optimiser l’impact économique de l’IA dont la première citée (pas nécessairement la plus importante) et l’évolution du marché de l’emploi et le remplacement progressif des hommes par des machines. Sur ce point, le récent rapport du cabinet Roland Berger (Rapport Lemoine : 180 mesures pour numériser la France) montre les deux faces de la numérisation. Côté face, « les gains de productivité liés à la numérisation des entreprises pourraient représenter à 10 ans 30 milliards d’euros de recettes fiscales et 30 milliards d’investissement privé additionnels ». Côté pile, « 3 millions d’emplois pourraient être détruits par la numérisation à l’horizon de 2025. Une telle évolution déstabiliserait en profondeur les classes moyennes françaises, car de nombreux emplois de services seraient touchés ».

Il évoque aussi certains problèmes que l’utilisation de ces futurs systèmes intelligents et autonomes ne manquera pas de soulever. « A supposer que les voitures autonomes permettent de réduire de moitié les 40 000 morts par accidents de la route chaque année aux Etats-Unis, les constructeurs automobiles ne recevront pas 20 000 lettres de remerciements mais feront l’objet de 20 000 attaques en justice ». Et que dire de l’utilisation de tels systèmes dans le domaine de la médecine ? Parmi les autres problèmes qui ne manqueront pas d’apparaître sans prétendre d’être exhaustif, la lettre fait état de l’éthique des machines, les armes autonomes, le droit à la vie privée… Le document énonce différentes voies (voir ci-dessous) pour permettant de définir une intelligence artificielle « robuste ».

1. Verification: how to prove that a system satisfies certain desired formal properties. (\Did I build the system right? »)
2. Validity: how to ensure that a system that meets its formal requirements does not have unwanted behaviors and consequences. (\Did I build the right system? »)
3. Security: how to prevent intentional manipulation by unauthorized parties.
4. Control: how to enable meaningful human control over an AI system after it begins to operate. (\OK, I built the system wrong, can I fix it? »)

 

[1] Asimov considérait que ses lois devaient être universelles pour les robots. Aussi, assistant à la projection de 2001, l’Odyssée de l’espace, il quitta avec bruit la salle lorsque l’ordinateur HAL 9000 viola sa première loi en s’attaquant à des humains (source : Wikipedia)