OpenAI a annoncé trois nouveaux modèles au sein d’une nouvelle famille « GPT 4.1 » qui ne seront, dans un premier temps, accessibles qu’au travers des API de sa plateforme pour développeurs et non via ChatGPT… Et pour la première fois, l’éditeur propose une version « nano », la plus rapide et la moins onéreuse de ses IA GPT.
OpenAI a dévoilé lundi sa nouvelle famille de modèles d’intelligence artificielle baptisée GPT-4.1, marquant une nouvelle progression notable dans le domaine du codage et du traitement des instructions. Pour la première fois dans l’histoire d’OpenAI, cette suite comprend trois variantes – GPT-4.1, GPT-4.1 mini et GPT-4.1 nano – toutes disponibles via l’API d’OpenAI, mais pas encore intégrées à ChatGPT (elles pourraient même ne jamais l’être).
Pourquoi « 4.1 » ? C’est la question que justement OpenAI préfèrerait qu’on ne lui pose pas. L’entreprise reconnaît elle-même que sa politique de nommage n’a aucun sens. Alors, inutile de nous étendre dessus. Disons que le modèle « GPT 4.1 » est en tout point plus performant que « GPT-4o » mais ne mérite pas le « o » qui signifiait « omni », le modèle « 4.1 » ne prenant pas en charge l’audio.
Et le modèle n’est pas aussi frontière et aussi gargantuesque que « GPT 4.5 » même s’il le surpasse sur certains tests, à commencer justement par les tests de codage. De toute façon « GPT 4.5 » était une erreur : OpenAI n’avait pas vraiment l’intention de le publier tant il était onéreux à opérer et à utiliser mais l’avait finalement fait pour occuper le terrain. Une erreur qui ne va pas tarder à être corrigée, puisqu’OpenAI a officialisé le retrait prochain de « GPT 4.5 » de sa plateforme.
Une grosse fenêtre contextuelle
L’avenir à court terme se nomme donc désormais « GPT 4.1 ». La gamme se distingue par une caractéristique commune très attendue : les trois modèles supportent une fenêtre contextuelle élargie à 1 million de tokens (contre 128 000 pour GPT-4o) retirant ainsi aux modèles Gemini de Google leur principal atout. Cette fenêtre contextuelle permet non seulement d’entretenir des discussions plus longues mais surtout d’analyser des œuvres volumineuses ou des vidéos plus longues.
Le modèle phare GPT-4.1 peut également générer plus de tokens simultanément que son prédécesseur (32 768 contre 16 384 pour GPT-4o), tout en bénéficiant d’une base de connaissances actualisée jusqu’en juin 2024.
Performance et positionnement compétitif
Sur les benchmarks de codage, GPT-4.1 affiche des progrès notables avec un score de 52-55% sur SWE-bench Verified, représentant une amélioration de 21% par rapport à GPT-4o. Cependant, il reste légèrement en retrait face au tout récent Gemini 2.5 Pro de Google (63,8%) et au Claude 3.7 Sonnet d’Anthropic (62-63%), ce qui s’explique par l’absence de « raisonnement avancé », GPT 4.1 étant un modèle GPT classique et non un modèle hybride comme ceux de Google et Anthropic.
En revanche, OpenAI revendique une performance de pointe sur d’autres métriques. Le modèle a notamment atteint un impressionnant 90,2% sur le benchmark MMLU (Massive Multitask Language Understanding), qui évalue les connaissances générales et la résolution de problèmes dans des dizaines de domaines. Même la version nano, optimisée pour la vitesse et les coûts réduits, a réussi à atteindre 80,1% sur ce même benchmark.
« Nous avons optimisé GPT-4.1 pour une utilisation concrète, en nous basant sur les retours directs des développeurs, » a déclaré un porte-parole d’OpenAI. « Ces améliorations permettent de construire des agents considérablement plus performants dans les tâches réelles d’ingénierie logicielle. »
Michelle Pokrass, responsable de la recherche post-entraînement chez OpenAI, précise que GPT-4.1 était particulièrement optimisé pour « le codage frontend, la réduction des modifications superflues, le suivi fiable des formats, et une utilisation cohérente des outils. »
Le modèle se veut aussi plus à même à suivre strictement toutes les instructions fournies dans le prompt.
Une famille de modèles adaptée à différents besoins
La déclinaison en trois modèles répond à des besoins variés:
* GPT-4.1 est le modèle le plus performant pour les tâches complexes de codage et les connaissances générales (facturé 2$ par million de tokens d’entrée, 8$ par million de tokens de sortie). Le modèle GPT-4.1 est ainsi 26% moins coûteux que GPT-4o via l’API.
* GPT-4.1 mini offre un bon équilibre puissance/efficacité tout en étant particulièrement adapté au traitement d’images (facturé 0,40$ par million de tokens d’entrée, 1,60$ par million de tokens de sortie).
* GPT-4.1 nano est optimisé pour la latence minimale et la réduction des coûts de l’IA, idéal pour les applications comme l’autocomplétion ou la classification (facturé 0,10$ par million de tokens d’entrée, 0,40$ par million de tokens de sortie).
Les modèles GPT 4.1 sont disponibles dès à présent sur la plateforme API d’OpenAI mais également sur Azure AI Foundry. Par ailleurs, Microsoft a confirmé que les entreprises pourraient dès la fin de la semaine personnaliser les modèles « GPT 4.1 » et « GPT 4.1 mini » par fine-tuning supervisé. Ce mécanisme permet aux entreprises d’adapter ces modèles à leurs besoins spécifiques à partir de leurs propres jeux de données. Les modèles ainsi personnalisés sont gérés et déployés via Azure AI Foundry, offrant aux entreprises clientes un contrôle total sur le versionnage, la sécurité et la scalabilité.
À lire également :
Google lance Gemini 2.5 Flash, un modèle qui raisonne à faible coût…
Google dévoile son IA hybride Gemini 2.5
OpenAI : une levée record sous multiples conditions…
OpenAI améliore les capacités de génération d’images de ChatGPT
OpenAI améliore le mode vocal de ChatGPT et ses API audios
Arggghhhhh ! Anthropic aussi lance une offre « Max » à 200$ par mois !