ChatGPT est sans conteste l’innovation technologique de ce début d’année. Après la fièvre médiatique de ces dernières semaines, posons-nous un instant pour faire le point sur son potentiel, ses risques, et son impact à venir sur le déploiement d’une telle IA dans les entreprises et le quotidien de tous.
Depuis deux mois, l’IA ChatGPT ne cesse de faire la Une des sites d’information et même de magazines. L’engouement médiatique et de la sphère Internet autour de cette nouvelle technologie est indéniable.
Entre curiosité, inquiétude, et envie d’en comprendre le potentiel, ChatGPT est au centre de toutes les attentions et de nombre d’expérimentations : Participation à un concours juridique, possibilité d’échanger avec son « soi-jeune » ou encore utilisation à des fins de cybercriminalité.
Nul doute que l’ingéniosité des utilisateurs ne manquera pas de trouver de nouvelles façons de mettre en lumière cette technologie et d’en éprouver les limites.
Et si nous prenions un peu de recul pour faire le point ?
Alors concrètement de quoi s’agit-il ?
Chat-GPT est un agent conversationnel, ou chatbot, à savoir une interface simulant un échange humain, basée sur une intelligence artificielle. S’appuyant sur le moteur GPT-3 de Microsoft, Chat-GPT rencontre un fort succès notamment depuis son ouverture au public via une plateforme dédiée.
Alors que les professionnels pouvaient l’expérimenter depuis quelque temps en accès privé chez OpenAI (et cela nous bluffait déjà), l’industrialisation de son usage par le grand public en décuple les succès.
Alors pourquoi nous surprend-il autant ?
Les chatbots ne sont pas nouveaux. Depuis quelques années nous avons tous vécu l’expérience, positive ou négative, lors d’une réservation de billet de train ou d’un échange pour dépanner sa box internet. Cependant ces moments d’interaction homme/machine tournent souvent court avec des conversations « cul-de-sac », un manque de fluidité dans l’échange ou encore l’impression de converser avec un poisson rouge, oubliant ce que l’on s’était dit 3 phrases plus haut.Et oui la « humanité » d’un chatbot est souvent rapidement rendue caduque malgré certaines touches d’humour bien distillées par les « Bot Makers » qui auront fait un admirable travail de scénarisation.
Un avant/après Chat-GPT ?
Toute personne ayant expérimenté Chat-GPT a certainement été surprise de la construction de la réponse de notre ami digital. De sa capacité à résumer, à sa capacité à mener une argumentation, jusqu’à proposer des situations imaginaires, son imitation de la construction linguistique atteint certainement un sommet marquant. Mais cela ne serait rien sans ajouter sa vérification des faits avant toute réponse ou encore sa « mémoire » qui permet [enfin] de conduire une conversation qui s’enrichit à chaque réponse.
En se basant sur de nouvelles approches appliquées du Deep Learning, une technique de machine learning popularisée par le français Yann Le Cun dans les années 2010, Chat-GPT utilise notamment des « Transformers », à savoir des modèles de machine learning spécialement adaptés au traitement de « séquences », comme le sont des mots dans une phrase ou les lettres composant un mot. Les « transformers » permettent notamment à Chat GPT de porter son « attention » sur les éléments clés de la phrase à plusieurs reprises, de manière à pouvoir considérer l’impact du contexte dans le sens exprimé.
Pourquoi le phénomène Chat-GPT est-il particulièrement intéressant ?
Tout d’abord sa récente visibilité est une aubaine pour éprouver la solution à l’échelle, et certainement pouvoir valider ce qui fonctionne très bien avec les IA Génératives (qui peuvent créer du contenu) d’aujourd’hui. Un moyen donc d’en détecter les cas d’applications les plus adaptés. Par ailleurs, commence à émerger sur le marché la notion de « Prompts », ces bonnes pratiques pour interroger l’IA de manière à limiter les risques d’erreurs. Il s’agit donc de pouvoir la dompter, en connaissant ses limites, ses faiblesses. Parce qu’on ne met en avant que les réponses surprenantes mais pas le nombre important d’erreurs retournées. Et justement, d’où provient l’erreur ? Est-ce parce qu’il s’agit d’un modèle encore immature, au balbutiement de sa vie et de son potentiel ? Ou cela est-il lié aux utilisateurs, mal informés (ou non formés au bon usage) qui font emprunter à cette IA des chemins risqués ?
C’est peut-être la plus grande limite de Chat-GPT: avoir ouvert son expérimentation à un public non averti du fonctionnement de l’IA générationnelle, ses limites et ses risques pouvant générer un certain malaise, une peur de l’inconnu et des interrogations éthiques que nous nous devons forcément d’avoir face à ce type de technologies. On peut d’ailleurs reprocher à OpenAI d’avoir tardé à proposer des messages informatifs, tout comme son manque de transparence sur les biais existants et sur la base de connaissance et les partenaires ayant servi à son entrainement.Il est fort à parier que le passage en « as-a-service » sur le cloud Microsoft Azure dans la perspective d’une intégration à des solutions et à des usages professionnels, va nécessiter une meilleur communication et mise en garde sur un certain nombre de limites et d’enjeux.
Il faut toutefois reconnaître ce tour de force de Microsoft et Open AI qui leur permet d’avoir un impact monstre sur un marché qui s’imaginait « jouer » avec ces avancées technologiques seulement dans quelques années. Un investissement et un partenariat qui valident discrètement à l’échelle, le modèle et l’architecture de cette IA « générale » ! Chat-GPT est au NLP (Natural Language Processing) ce que le captcha a été à l’océrisation…
Quelles sont les relations entre Microsoft et Chat-GPT?
On peut s’interroger sur ce que nous prépare Microsoft, principal partenaire d’OpenAI (l’association à but lucratif derrière Chat-GPT), depuis son investissement à hauteur d’1 milliard de dollars en 2019 puis 2 milliards en 2021 afin de s’en attribuer une exclusivité de diffusion via son cloud Azure.
En réalité, Microsoft n’a pas attendu la sortie publique de Chat GPT pour mettre à disposition le moteur socle « GPT-3 » dans ses offres. En mai 2021, Microsoft annonçait déjà de l’utiliser dans PowerApps, technologie Low-Code de développement d’applications, pour pouvoir générer des formules dans Power Fx. Sur la même période, était également annoncée la fonctionnalité de génération du langage DAX de Power BI depuis une requête en langage naturel. Et on imagine que l’usage ne s’arrêtera pas là, Outlook, Word, Excel pourraient bénéficier des mêmes fonctionnalités innovantes. Peut-être enfin l’avenir des Q&A pertinents… et finalement c’est là qu’est tout le sujet. La technologie aurait été simplement distribuée intrinsèquement à la suite Microsoft sans l’exposition médiatique, nous aurionsmesuré différemment l’impact et l’enjeu des IA Génératives. À la manière de Dall-E ou encore plus récemment Vall-E (capable de reproduire une voix en 3 secondes d’écoute), ces IA accessibles nous auront permis d’éveiller une partie d’entre nous dans leur capacité à nous faciliter certaines tâches dans un futur déjà à portée de main.
À l’heure où nous essayons vainement de construire des métabots permettant d’uniformiser l’interaction de ces nombreux chatbots d’entreprises déployés (onboarding, support, CRM), Chat-GPT ne serait-il pas la clé d’un nouveau paradigme ?
Affaire à suivre…
____________________________
Par Kevin Vimard, Directeur Stratégies, Offres et Conseil chez Expertime.