Que se passera-t-il le jour où nous ne saurons plus distinguer une machine d’un humain ? Ce jour sera celui où les ordinateurs auront atteint le niveau de l’intelligence humaine. Mais faut-il juger de l’intelligence des IA par leur capacité à nous imiter ? Et devons-nous continuer à les concevoir de façon anthropomorphique ?
Robot ou un humain : une vraie différence ?
Si vous n’avez pas encore parlé à une intelligence artificielle, cela ne saurait tarder, si l’on observe le rythme auquel fleurissent les chatbots et assistants vocaux… Ou plutôt est-ce arrivé sans même que vous le sachiez. Certains utilisateurs des applications de messagerie, plus prudents que la moyenne, ont pris désormais l’habitude de se renseigner avant d’entamer un dialogue plus approfondi : « Bonjour, suis-je en train de parler à un robot ou à un humain ? ».
Car il y a dans nombre d’applications de l’intelligence artificielle au traitement du langage naturel un phénomène étrange : celles-ci semblent avoir été conçues avec le devoir d’imiter l’humain. On n’exige pourtant pas des voitures autonomes qu’elles klaxonnent compulsivement et insultent automatiquement par la fenêtre d’autres conducteurs indélicats ! Pourquoi demande-t-on aux agents virtuels d’avoir leur personnalité, d’être capables d’avoir des conversations mondaines, de faire preuve d’empathie ou d’avoir un peu d’humour ? Pourquoi faut-il qu’ils imitent le comportement humain ?
Ouvrir le champ de la « bêtise artificielle »
En 1950, Alan Turing conçoit un test d’intelligence artificielle qui consiste à mettre un humain averti en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Rapidement, le test est controversé, car il repose avant tout sur la capacité de la machine à imiter le comportement humain via le langage.
Le prix Loebner, une compétition annuelle qui depuis 1991 récompense les agents conversationnels qui remplissent le mieux les critères de Turing, subit les mêmes critiques : les IA lauréates semblent être celles qui trompent le mieux les juges et non les plus intelligentes. Par exemple, pour paraître plus humaines, les IA prennent le temps de réfléchir plutôt que de répondre immédiatement, elles évitent de répondre à des calculs, complexes pour un humain, mais triviaux pour les machines, elles font exprès de faire des fautes de frappe… On pourrait aller encore plus loin, et considérer que les intelligences artificielles les plus plausibles sont celles qui se trompent, se contredisent, mentent ou s’emportent sans raison. Dès lors, c’est un nouveau champ de recherche qui s’ouvrirait, immense, celui de la « bêtise artificielle » (« Artificial stupidity », c’est le titre qu’avait choisi The Economist à l’annonce des résultats des premiers prix Loebner).
En 2014 l’université de Reading affirme dans un communiqué qu’Eugène Goostman est la première intelligence artificielle à avoir passé le test de Turing, en convainquant 33 % des juges de son humanité au cours d’une conversation de 5 minutes. Seulement, pour y arriver, Eugène s’est présenté comme un garçon de 13 ans, ukrainien, et ne parlant pas vraiment bien l’anglais. En donnant à l’IA une personnalité aussi forte, cela rendait bien sûr beaucoup plus plausible qu’il connaisse peu de choses ou qu’il interprète mal certaines questions.
Une conception de l’intelligence à notre image
On pourrait ici conclure à une supercherie. Et pourtant, aussi vains que puissent sembler ces efforts d’imitation de l’humain, ils ne doivent pas être sous-estimés, ils ne peuvent pas tout à fait être considérés comme quantité négligeable.
Faites l’essai de parler avec un chatbot et vous verrez qu’il suffit généralement de quelques interactions pour débusquer une intelligence artificielle. Faire croire à un utilisateur averti que l’on est un humain pendant plusieurs minutes n’est pas une tâche facile, même en usant de subterfuges. Il faut que l’agent virtuel ait une certaine connaissance du monde (on pourrait dire une certaine « culture »), car la variété des sujets que peuvent aborder les évaluateurs est infinie. Il est d’ailleurs amusant de constater que les agents virtuels, qui initialement adoptaient des stratégies consistant à être capables de répondre à un maximum de questions, se sont au fil des années tournés vers des stratégies consistant à orienter la conversation vers un nombre limité de thématiques bien maîtrisées.
L’agent Eugène, par exemple, a tendance à beaucoup parler de son hamster. Mais il faut également que les agents conversationnels aient une compréhension fine du langage, non seulement des sujets, mais également des tournures. Il faut enfin qu’ils puissent répondre avec des phrases articulées de façon à la fois cohérente, naturelle et variée. On le voit, il y a de l’intelligence dans le fait de réussir à se faire passer pour un humain.
On objectera peut-être que c’est autant l’intelligence des concepteurs que l’intelligence artificielle qui est ici à l’oeuvre. Turing avait lui-même émis les principales objections que l’on pouvait opposer à son test et sans doute ne considérait-il pas lui-même qu’il s’agissait de mesurer l’intelligence des IA. La postérité lui a d’ailleurs donné raison, puisque les chercheurs se sont majoritairement tournés vers d’autres formes de mesure des succès de l’IA, plus simples à mettre en oeuvre et plus pertinentes.
Il reste que, pour nous, humains, la pensée est intrinsèquement associée au langage. Nous pouvons certes accepter que les voitures autonomes ou la victoire au jeu de go soient des progrès considérables de l’IA, mais nous sommes néanmoins fascinés par l’idée d’une intelligence artificielle à notre image. Il nous est pour ainsi dire difficile d’imaginer des intelligences évoluées qui prennent des formes non humaines. Il n’est donc pas étonnant que nous restions en quête d’avoir avec les machines des conversations « humaines », comme un horizon à la fois indépassable et un peu effrayant.
___________
Javier Gonzalez Helly est co-fondateur de Botfuel