L’intelligence artificielle et les systèmes experts des années 80 ont fait long feu. Les machines traitant du big data ne sont-elles pas prêtes à les remplacer ?
L’intelligence artificielle avait naître de grands espoirs dans les années 80 et allait conduire à de nombreux travaux de recherche et assez peu de résultats. Sachant que l’on n’avait jamais défini précisément le concept d’intelligence artificielle. Trente ans plus tard, la fiction est peut-être devenue réalité. En 2011, un chercheur de l’université de Berlin avait permis la conduite d’une voiture de tourisme en interprétant directement les signaux émis par le cerveau et complétée de systèmes de radars et de caméras. Dans la catégorie des assistants personnels numériques, les systèmes Siri disponibles sur l’iPhone et son équivalent Cortana sur les Windows Phone montrent les progrès qui ont été réalisés dans ce domaine.
Trois ingrédients sont en train d’ouvrir la voie à de nouveaux systèmes qu’on ne classe pas dans la catégorie de l’intelligence mais dont les capacités sont très nettement supérieures aux systèmes experts des années 80 : la puissance informatique disponible régie par la loi de Moore (multiplié par 2 millions de fois en 30 ans), la disponibilité de volumes considérables de données, notamment via Internet, et des algorithmes de plus en plus puissants, notamment basés sur les technologiques dites de « deep learning » (deep neural networks). De telles sortes qu’il est aujourd’hui possible de réaliser des machines non seulement intelligentes (dans le sens où elles sont capables de faire des choses compliquées) mais aussi apprenantes.
Dans cette mouvance, c’est sans doute IBM et son système Watson qui symbolise le mieux ces avancées dans ces domaines des systèmes cognitifs. Après avoir battu le champion du monde des échecs avec son système Deep Blue, Big Blue s’est attelé à une tâche plus ardue : battre les champions du jeu télévisé américain Jeopardy. Ce qu’elle réussit en 2011. Aujourd’hui, Watson ouvre une plate-forme ouverte autour de laquelle IBM veut constituer un écosystème de partenaires développant des applications, commercialise des services notamment dans le domaine de la santé et vient de constituer une division qui regroupera quelque 2000 personnes. Au total, IBM a indiqué qu’elle investirait 1 milliard de dollars sur ce projet les prochaines années.
Dans ce domaine, Google a aussi des projets ambitieux dans ce domaine avec des moyens de financement important. La firme californienne a racheté de nombreuses entreprises dans le domaine de l’intelligence artificielle et de la robotique : DNN Research, DeepMind Technologies, Boston Dynamics, Rewood Robotics, Holomni, Meka…
L’approche avec les big data est assez différente de celle qui sous-tendait l’intelligence artificielle des années 80. Les premiers traducteurs s’appuyaient des modèles et de la programmation qui tentaient de reproduire l’intelligence et la réflexion humaine. Les systèmes d’aujourd’hui s’appuient sur ordinateurs capables d’utiliser des millions de textes et de trouver la bonne équivalence d’une langue à l’autre. Le système Google Vision de Google est capable de trouver une image qui ressemble à une autre ou encore de reconnaître un chat sans avoir l’idée de ce qu’est un chat. Dans un récent post, le consultant Robert Crigely (Big Data is the new Artificial Intelligence) propose un autre exemple. Des études basées sur l’analyse d’examens IRM permettent d’identifier des criminels avec une bonne probabilité. Et sans aucune théorie sous-jacente, il est également possible de faire séparer les récidivistes des non récidivistes. Une telle approche n’est pas sans poser de lourdes questions. Par ailleurs, si on sait que ça marche, on ne sait pas pourquoi car il n’y aucune théorie expliquant la démarche. Ce qui est aussi très ennuyeux.
De nombreuses sociétés se sont engouffrées dans le développement de machines intelligentes et apprenantes. Le Gartner en présente quelques unes dans une note qu’il vient de publier intitulée Cool Vendors in Smart Machines, 2014 : AlchemyAPI, Digital Reasoning applies, Highspot, Lumiata, Narrative Science. Forts de ces futurs développements, le Gartner considère que les emplois de 20 % des personnes travaillant à des tâches créatives et non routinières seront largement impactés par des technologies en 2020. En 2017, 10 % des ordinateurs seront des machines apprenantes. En 2015, Google et Microsoft intègreront des services de VPA (Virtual Personal Assistant) respectivement dans leur offre Google Apps for Business et Office 365.
Des fournisseurs de machines intelligentes AlchemyAPI propose des services d’analyse de textes via le cloud et une simple interface. L’entreprise propose aussi des services de classification d’images (basés sur des technologies de deep neural networks) et d’autres types de contenu. Le suffixe API suggère l’idée d’une plate-forme ouverte sur laquelle des éditeurs peuvent développer des extensions.Digital Reasoning utilise des technologies d’intelligence artificielle pour détecter des anomalies et des activités suspectes. Le système aide à détecter des connexions cachées entre les gens, les endroits et les choses afin de résoudre des problèmes de sécurité et de risques.HighSpot développe un système qui se rapproche de ceux de Microsoft (Cortana) et d’Apple (Siri).Lumiata fait de l’analyse prédictive en utilisant de larges volumes de données appliquée au diagnostic médical. Narrative Science a développé un système d’écriture automatisée à partir de données externes structurées et non structurées telles que des tendances, des relations et des corrélations. |