Après avoir dans l’urgence totalement bridé son IA au point de la rendre inutilisable, Microsoft revoit une nouvelle fois sa stratégie et lâche un peu de lest. L’éditeur a-t-il été trop rapide à dévoiler l’IA Bing et trop rapide à le brider dans la foulée ? La concurrence en tirera probablement des leçons…
Lors de sa première semaine d’exposition au grand public, la nouvelle IA de Bing a étonné bien des utilisateurs par sa faculté à accompagner utilement les recherches, à créer des résumés et à entretenir les conversations autour des sujets recherchés. Mais elle a également montré quelques faiblesses avec une tendance à parfois affabuler, à se perdre en chemin dans les conversations qui se prolongeaient hors des contextes de recherche et surtout à vouloir adopter un ton similaire à celui de l’interlocuteur se montrant parfois brusque voire agressive, amoureuse ou en plein « état d’âme » autant d’émotions que non seulement elle ne peut éprouver mais surtout qu’elle n’est absolument censée adopter.
Ici, ce n’est d’ailleurs pas tant le modèle conversationnel d’OpenAI qui est en cause que les modèles Prometheus censés contrôlés les dérives, des modèles élaborés par Microsoft.
Jusqu’ici plutôt audacieux, l’éditeur semble avoir très soudainement pris peur face aux nombreuses dérives incontrôlées de son IA, dérives qu’il n’avait ni anticipées ni même détectées durant les phases de tests en laboratoire. Dès Vendredi dernier, Microsoft mettait en place de nouveaux verrous devenus si restrictifs que son IA en perdait d’un coup l’essentiel de ses qualités et de son intérêt. Un impératif de responsabilité selon l’éditeur qui ressemblait furieusement à une crise de panique !
Ayant repris la main sur son IA et ses esprits, mais surtout poussé par les réactions très négatives d’utilisateurs face à cette IA désormais totalement bridée, Microsoft a annoncé hier soir lâché un petit peu de lest. « Nous avons l’intention de rétablir des sessions de chat plus longues et nous travaillons en ce moment même sur la meilleure façon de le faire de manière responsable » expliquent les responsables de Bing dans un billet de Blog. « La première mesure que nous prenons est d’augmenter le nombre d’échanges dans une même session de discussion à 6 échanges et de passer à un total de 60 sessions de discussions par jour. Nos données montrent que pour la grande majorité d’entre vous, cela permettra une utilisation quotidienne naturelle de Bing ».
À l’essai, l’IA devient ainsi un tout petit peu plus utilisable mais reste incroyablement bridée par rapport à ce qu’elle montrait les premiers jours du lancement. Ceci dit pour des recherches classiques, le nouveau seuil suffit. En revanche les autres verrous, et notamment celui qui lui interdit de parler d’elle-même et des IA en général est toujours bien en place ce qui parfois gène les recherches justement autour des IA.
L’éditeur ajoute « cela dit, notre intention est d’aller plus loin et nous prévoyons d’augmenter le plafond quotidien à 100 chats au total prochainement. En outre, avec ce changement à venir, vos recherches normales ne seront plus comptabilisées dans le total de vos chats. Nous vous fournirons d’autres mises à jour au fur et à mesure que nous continuerons à améliorer le modèle ». La phrase est beaucoup moins anodine qu’elle n’en a l’air. Apparemment, chez Microsoft, l’heure n’est pas à quelques réglages mais à rééduquer les modèles et probablement les fameux modèles Prometheus mais aussi peut-être celui d’OpenAI qui a bien trop tendance à vouloir adopter la tonalité de l’utilisateur plutôt que de garder une totale neutralité. Un problème probablement bien plus complexe et long à résoudre que les ajustements des règles de contrôle.
Microsoft confirme aussi travailler activement à un autre défaut de son IA : sa tendance naturelle à faire n’importe quoi avec les dates et les chiffres qui handicape notamment sa capacité à analyser et résumer des documents financiers. Microsoft explique « nous allons commencer à tester une option supplémentaire qui vous permet de choisir le ton de la discussion : ‘plus précis’ – ce qui vous permettra d’obtenir des réponses plus courtes et plus axées sur la recherche -, ‘équilibré’, ou ‘plus créatif’ – ce qui vous permettra d’obtenir des réponses plus longues et plus inspirées. L’objectif est de vous donner plus de contrôle sur le type de comportement du chat Bing qui répond le mieux à vos besoins ».
Encore une fois, les déboires de Microsoft ne sont pas une véritable surprise même si l’éditeur s’est montré étrangement naïf et imprudent malgré son expérience Tay il y a plusieurs années. Des anicroches qui doivent réjouir et en apprendre beaucoup à Google avec son futur Bard (en test interne). Google ne devra pas répéter les mêmes erreurs et écouter ses utilisateurs internes : selon certaines sources, des employés Microsoft auraient émis des réserves sur les dérives comportementales de l’IA Bing dès novembre 2022.