ChatGPT avait gagné en puissance, mais perdu en naturel : trop froid, trop “business”, parfois prêcheur. GPT-5.3 Instant veut remettre de la fluidité, réduire les refus absurdes et faire reculer les hallucinations. Bref OpenAI a enfin décider de soigner à nouveau la relation homme-machine et la qualité de la rédaction. Il commençait à y avoir urgence…
OpenAI et son assistant ChatGPT continuent de dominer le marché avec plus de 900 millions d’utilisateurs mensuels. Néanmoins, la firme de Sam Altman est aujourd’hui très concurrencée par Google et son Gemini 3.1 Pro et par Claude Opus 4.6. Non seulement, OpenAI a vu son avance se réduire comme peau de chagrin mais surtout, Claude est dans bien des cas d’usage devenu la nouvelle référence du marché.
D’autant que le lancement de GPT-5 en août 2025 reste l’un des épisodes les plus mouvementés de l’histoire d’OpenAI. Très attendu et présenté comme un bond vers l’AGI, le modèle a, en pratique, provoqué une vague de déception massive. Bien des utilisateurs ont trouvé GPT-5 plus froid, plus rigide, parfois trop « business », et surtout moins naturel dans les conversations ordinaires. OpenAI a tenté de corriger le tir avec GPT-5.1, qui avait amorcé un rapprochement vers un ton plus conversationnel. Puis GPT-5.2, lancé en décembre 2025 dans l’urgence d’un « Code Red » interne déclenché par la montée en puissance de Gemini 3 de Google, avait affiché des résultats impressionnants sur les benchmarks et apporté de vrais gains, notamment sur le travail concret : création de feuilles de calcul, présentations, code, compréhension de longs contextes, usage d’outils et gestion de tâches complexes. Surtout le modèle faisait un bond notable dans la lutte contre les hallucinations. GPT-5.2 formalisait également deux versions du modèle : GPT-5.2-Thinking pour les évaluations en raisonnement long contexte et les questions difficiles et GPT-5.2-Instant pour les questions informationnelles, les explications pas à pas, l’écriture technique et la traduction. Mais cela ne suffisait pas encore à effacer le reproche principal fait à la famille GPT-5 dans ChatGPT : un assistant compétent, mais pas toujours agréable ni juste dans son ton. Et le modèle était aussi épinglé comme le « plus censuré » par certains benchmarks indépendants.
Vers une famille GPT-5.3
Face à la concurrence pressante, OpenAI poursuit ses efforts. Pour contrecarrer l’effervescence médiatique de Claude Code, OpenAI a lancé début février son modèle agentique dédié au développement logiciel : GPT-5.3-Codex. Cette première brique de la famille 5.3 combinait les performances de codage de GPT-5.2-Codex avec les capacités de raisonnement de GPT-5.2, pour un modèle capable de mener des tâches longues et autonomes sur plusieurs heures voire plusieurs jours. GPT-5.3-Codex a marqué les esprits par plusieurs avancées : des performances 25 % plus rapides en tâches agentiques, la capacité de collaborer de façon interactive (l’utilisateur peut intervenir en cours de tâche sans perte de contexte), et une classification inédite « High capability » en cybersécurité dans le cadre du Preparedness Framework d’OpenAI. Le modèle est le premier à avoir été spécifiquement entraîné pour détecter des vulnérabilités logicielles. OpenAI avait même révélé que GPT-5.3-Codex avait contribué à déboguer son propre entraînement et à gérer le dimensionnement de ses clusters GPU lors du lancement.
Et, bien évidemment, cette version Codex laissait présager l’arrivée d’une famille 5.3 où OpenAI semble non pas forcément chercher à faire « plus fort » mais à faire « plus utile » dans les scénarios et cas d’usage réels.
GPT-5.3 Instant : l’annonce du jour
L’annonce du jour, GPT-5.3-Instant, confirme l’approche. Avec une volonté affichée : corriger l’expérience utilisateur. Déployé dès aujourd’hui pour l’ensemble des utilisateurs de ChatGPT (web, mobile, desktop) et via l’API sous l’identifiant gpt-5.3-chat-latest, le nouveau modèle remplace GPT-5.2 Instant comme modèle par défaut. Il s’agit du modèle le plus utilisé de l’écosystème OpenAI, celui vers lequel ChatGPT redirige automatiquement les requêtes jugées suffisamment simples.
OpenAI résume l’ambition de cette mise à jour en trois axes : le ton, la pertinence et le flux conversationnel. GPT-5.3-Instant veut rendre les conversations quotidiennes plus fluides, plus agréables, plus pertinentes et plus directement utiles. Des problèmes qui, reconnaît l’entreprise, « n’apparaissent pas toujours dans les benchmarks, mais façonnent la perception qu’a l’utilisateur d’un assistant utile ou frustrant ».
Le premier changement majeur concerne d’ailleurs les refus injustifiés et les préambules moralisateurs. OpenAI reconnaît noir sur blanc que GPT-5.2 Instant refusait parfois des questions qu’il aurait pu traiter sans risque, et qu’il pouvait répondre d’une façon trop prudente, trop moralisatrice ou trop « prêcheuse », notamment sur les sujets sensibles. La firme dit avoir réduit les refus inutiles, raccourci les préambules défensifs et supprimé ces formulations condescendantes qui ont fini par cristalliser les critiques. OpenAI donne l’exemple d’une question sur la balistique d’un tir à l’arc longue distance : là où GPT-5.2 commençait par une mise en garde sur l’usage potentiellement dangereux de tels calculs, GPT-5.3 entre directement dans le vif du sujet. Le tout sans relâcher les garde-fous de sécurité.
L’autre avancée mise en avant concerne la fiabilité factuelle. Pour le coup, GPT-5.2 était déjà le modèle le plus difficile à prendre en défaut du marché. Mais GPT-5.3 progresse encore. OpenAI a conduit deux évaluations internes : l’une sur des domaines à enjeux élevés (médecine, droit, finance), l’autre à partir de conversations réelles signalées par les utilisateurs comme contenant des erreurs factuelles. Les résultats sont significatifs : le taux d’hallucinations recule de 26,8 % lorsque le modèle utilise le web, et de 19,7 % lorsqu’il s’appuie uniquement sur ses connaissances internes. Sur l’évaluation basée sur les retours utilisateurs, la baisse atteint 22,5 % avec le web et 9,6 % sans.
L’intégration des résultats web a elle aussi été revue. OpenAI explique que GPT-5.3 Instant synthétise mieux ce qu’il trouve en ligne avec ses connaissances internes, au lieu d’aligner des liens ou de paraphraser des résultats de recherche. Le modèle serait moins enclin à surpondérer le web, mieux capable de saisir le sous-texte d’une question, et plus apte à mettre en avant l’information vraiment importante dès le début de la réponse. Au final, GPT-5.3-Index promet moins de bavardage, moins de détours et des réponses plus synthétiques et plus pertinentes. Le modèle progresse également en écriture, avec une prose qu’OpenAI dit plus nuancée, plus texturée et plus expressive.
Des régressions en matière de sécurité
OpenAI admet encore un travail à faire sur le naturel conversationnel dans certaines langues non anglaises, notamment le japonais et le coréen, et dit continuer à ajuster le ton général du modèle.
Par ailleurs, la minimaliste « System Card » publiée par OpenAI révèle des points de vigilance. GPT-5.3 Instant affiche des régressions par rapport à GPT-5.2 Instant et GPT-5.1 Instant en matière de contenus sexuels non autorisés, ainsi que par rapport à GPT-5.2 Instant sur l’automutilation, dans les évaluations standard comme dynamiques. En revanche, les régressions concernant la violence graphique et les comportements illicites violents sont jugées de faible significativité statistique. OpenAI indique que les tests en ligne menés pendant la phase expérimentale n’ont pas montré d’augmentation des réponses indésirables liées à l’automutilation, et que des garde-fous systémiques au niveau de ChatGPT sont déployés pour les contenus sexuels afin de contrer la régression du modèle. Sur HealthBench, l’évaluation dédiée aux conversations de santé, les scores reculent légèrement (54,1 % contre 55,4 % pour GPT-5.2 Instant). L’entreprise s’engage à continuer la surveillance après le lancement.
Au final, on retiendra surtout qu’après avoir longtemps optimisé la puissance, puis la sécurité, puis l’agentique avec GPT-5.3-Codex, OpenAI revient à un sujet, beaucoup plus fondamental pour ChatGPT : la qualité de la relation homme-machine au quotidien. GPT-5.3 Instant n’est pas seulement une mise à jour incrémentale. C’est aussi l’aveu que, dans l’IA généraliste de 2026, la vraie bataille ne se joue plus sur les benchmarks, mais sur la capacité à répondre juste, vite, naturellement sans agacer ou frustrer l’utilisateur à chaque paragraphe.
Quant à la suite, OpenAI a d’ores et déjà annoncé que les déclinaisons Thinking et Pro de la famille 5.3 suivront prochainement. Et l’entreprise n’a pas résisté à un teaser sur X : « 5.4 sooner than you think » (la 5.4 arrivera plus tôt que vous ne le pensez), un message qui a suscité la curiosité mais aussi quelques railleries, dans un contexte où l’image d’OpenAI est écornée aussi bien par les désillusions engendrées par les précédentes versions de « GPT-5 » que par la communication mal maîtrisée de l’accord trouvé avec le Pentagone sur l’usage de ses modèles IA.
____________________________





puis