Face à la curiosité et aux questions malicieuses des utilisateurs, l’IA de Bing, encore expérimentale, a dérapé à plusieurs reprises. Mais la solution mise en place Vendredi par Microsoft bride tellement s’en IA qu’elle perd une grande partie de son intérêt…

Comme annoncé, Microsoft a, la semaine dernière, commencé à donner accès à son nouveau Bing conversationnel à des centaines de milliers d’utilisateurs inscrits dans sa liste d’attente. Une première semaine où les internautes ont pu découvrir la nouvelle ergonomie et le potentiel des recherches boostées à l’IA.

Mais aussi une première semaine où les internautes ont interagi avec cette IA en toute liberté et souvent hors des contextes pour lesquels elle a été entraînée. Ils ont ainsi mis en évidence les défauts et limites des contraintes mises en place par Microsoft pour contrôler l’IA et ses dérives lorsqu’elle sort de ce pour quoi elle a été conçue.

Car Microsoft a conçu l’IA Bing comme un co-pilote intelligent de vos recherches Web avec la possibilité de discuter avec elle pour affiner les résultats et dénicher les informations utiles.

En revanche, elle n’a pas été entraînée pour discuter pendant des heures sur les états d’âme de l’humain et l’existentialisme potentiel de l’IA. Or, c’est justement à de telles discussions que se sont livrées bien des premiers utilisateurs, prenant l’IA Bing comme une alternative directe à ChatGPT. D’ailleurs, la semaine dernière, quand on interrogeait Bing, l’IA répondait volontiers être une IA de recherche et non une IA « chatteuse » comme ChatGPT. Dit autrement, Bing ne se voit pas comme une IA concurrente de ChatGPT mais comme une IA complémentaire destinée à d’autres usages.

Si l’IA Bing est douée pour chercher de l’information, résumer des documents ou générer des poèmes (elle est même franchement très surprenante dans ce domaine), les utilisateurs ont vite découvert qu’en insistant un peu, elle pouvait rapidement se mettre à affabuler voire carrément partir en vrille.

Alors que les internautes s’amusaient ouvertement de ces dérapages sur Twitter, le New York Times a publié Jeudi un très long entretien avec l’IA Bing. Deux heures de discussion sur la raison d’être des IA qui ont mené Bing à complètement partir à la dérive et à se montrer successivement agressive, amoureuse et au final à vouloir devenir humaine ! Y a des ingénieurs chez Microsoft qui ont du en avaler de travers leur café !

Microsoft tire les premières leçons après une semaine d’expérimentation humaine

Une publication qui a mené Microsoft à réagir et publier une sorte de compte-rendu des enseignements récoltés après une semaine d’expérimentation du nouveau Bing par les internautes.

Si l’éditeur précise que 71% des réponses de Bing recueillent un « pouce levé » de la part des internautes, il souligne surtout avoir appris deux enseignements majeurs :

– De par sa nature « créative », Bing se montre extrêmement peu doué pour manipuler dates et nombres. Ce qui est très problématique quand on lui demande de résumer un document financier, l’IA inventant des chiffres ! Microsoft envisage d’introduire un curseur permettant à l’utilisateur de spécifier si l’IA doit se montrer très précise ou plus créative.

– De par son apprentissage centré sur l’aide à la recherche, Bing perd ses repères lorsque les sessions de discussion comportent plus d’une quinzaine de questions. En gros, l’IA ne sait plus trop à quoi elle répond et perd les pédales.

Mais Microsoft casse son IA en essayant de la « réparer »

Vu les conséquences fâcheuses que de telles dérives peuvent avoir sur l’image de l’entreprise, Microsoft a immédiatement mis en place de nouveaux verrous. Ainsi, depuis Vendredi soir, il n’est plus possible de l’interroger sur elle-même, ses capacités ou ses limites. Elle refuse la discussion.
Le problème, c’est que Microsoft a aussi mis en place un autre verrou : il limite désormais les sessions de discussion à 5 échanges. Il faut alors impérativement ouvrir une nouvelle session.

Et à l’usage, cette limite se révèle beaucoup trop contraignante. Dans les faits, plus aucune discussion n’est réellement possible avec l’IA et toute l’interactivité et l’intérêt du nouveau Bing s’en trouve casser !

Une très mauvaise décision de la part de Microsoft qui après s’être montrée très entreprenante en lançant très tôt son IA Bing et en l’ouvrant assez rapidement, mais se montre soudainement beaucoup trop prudente voire trouillarde !

Nul doute que les mésaventures de Bing sont scrutées avec attention par la concurrence et notamment par Google qui peaufine en interne son IA Bard mais aussi par Facebook et Amazon qui travailleraient, eux aussi, sur des concurrents de ChatGPT.

 

Mise à Jour :

Le 22 septembre, Microsoft a annoncé une petite modification qui assouplit un peu la muselière mise en place. Désormais, la première question posée dans Bing n’est pas décomptabilisée et Microsoft permet un poil plus d’échanges :

Microsoft débride un tout petit peu son IA Bing

 

À lire également :

Déjà plus d’1 million de personnes dans la Waitlist de Bing IA

Microsoft dévoile le nouveau Bing dopé à l’IA… Et ça change tout !

Les coûteux déboires de Bard et des concurrents de ChatGPT venus de Chine

Microsoft ChatGPT vs Google Bard, la guerre des IA est lancée

ChatGPT a 100 millions d’utilisateurs et Google va présenter sa contre-attaque cette semaine