Après avoir manqué le départ de l’IA générative, Amazon revient fort : Nova 2, Bedrock AgentCore et une avalanche de modèles open weight redéfinissent la stratégie IA d’AWS autour du réalisme industriel. Le cloud d’Amazon déploie une approche méthodique de l’IA générative, combinant maîtrise technique, flexibilité économique et intégration native avec ses services existants.
Pris de court par l’explosion de ChatGPT fin 2022, AWS a clairement raté le départ médiatique de l’IA générative, laissant Microsoft-OpenAI et Google occuper le terrain. Mais en deux ans, le cloud d’Amazon a méthodiquement comblé l’essentiel de son retard avec une stratégie très « plateforme » : avec d’une part sa très populaire solution MaaS (Model as a Service) dénommée Bedrock, vitrine d’un catalogue pléthorique de modèles, mais aussi avec sa propre famille de modèles maison, Nova, lancée à Re:Invent 2024 et optimisée pour le ratio performance/coût.
À AWS re:Invent 2025, Amazon confirme son positionnement offensif et compte bien s’afficher comme un partenaire de prédilection des entreprises qui veulent innover avec l’IA tout en contrôlant leurs investissements.
Nova 2, la deuxième génération de modèles maison
Au cœur de cette offensive, AWS lance sa seconde génération de modèles génératifs maison, la famille Nova 2, disponible dès aujourd’hui dans Bedrock et déclinée en quatre variantes Nova 2 Lite, Pro, Sonic et Omni. Ces modèles combinent raisonnement, multimodalité et tempérament agentique, avec un accent assumé sur le rapport performance-prix et la capacité à piloter des agents complexes à grande échelle.
Ils partagent plusieurs caractéristiques clés, parmi lesquelles une fenêtre de contexte d’un million de tokens, la prise en charge de la multimodalité texte, images, vidéo et parfois audio, des outils intégrés comme l’interpréteur de code et le web grounding, ainsi que la possibilité d’ajuster le niveau de pensée du modèle (low, medium, high) pour arbitrer entre profondeur de raisonnement, latence et coût.
Nova 2 Lite, le « cheval de bataille » du raisonnement à bas coût
Nova 2 Lite se positionne comme le modèle de raisonnement rapide le plus économique pour tous les workloads du quotidien. Il analyse texte, images et vidéos pour produire du texte et convient bien aux chatbots clients, au traitement documentaire, à l’extraction d’informations à partir de vidéos ou à l’automatisation de processus métiers. AWS met en avant la possibilité pour les développeurs de moduler l’effort de raisonnement, avec plus ou moins d’étapes intermédiaires, afin de piloter finement la facture.
Sur les benchmarks, AWS revendique une nette avance : Nova 2 Lite égalise ou dépasse Claude Haiku 4.5 sur 13 des 15 tests, GPT-5-Mini sur 11 des 17 et Gemini Flash 2.5 sur 14 des 18 tests, avec des points forts en compréhension de documents, analyse vidéo, code et workflows agentiques. L’ambition est de proposer une alternative volume crédible aux modèles légers de Google, Anthropic ou OpenAI, tout en restant dans un budget compatible avec un usage massif en production.
Nova 2 Pro, le modèle de référence pour les tâches complexes
Nova 2 Pro devient le modèle le plus avancé de la gamme, le modèle « frontière » d’AWS, pensé pour les tâches les plus exigeantes telles que l’analyse multi documents, le raisonnement vidéo, les migrations logicielles, le refactoring, la planification longue et les workflows agentiques sophistiqués. Il s’appuie sur les mêmes briques que Lite avec un contexte étendu, des outils intégrés, un contrôle du niveau de pensée, mais il pousse plus loin la profondeur de raisonnement et la qualité de réponse.
Selon les benchmarks communiqués, Nova 2 Pro arrive en tête ou à égalité sur 10 des 16 tests face à Claude Sonnet 4.5, sur 8 des 16 face à GPT-5.1, sur 15 des 19 face à Gemini 2.5 Pro et sur 8 des 18 face à une préversion de Gemini 3 Pro. Un comparatif tiers indique en parallèle un prix environ 20 pour cent plus bas en entrée et 35 pour cent plus bas en sortie que Claude Haiku 4.5 (le moins cher des modèles d’Anthopic) pour un million de tokens, ce qui renforce le discours d’AWS qui veut faire de Nova 2 Pro le modèle IA industriel le plus abordable du marché.
Dans un contexte d’entreprise, Nova 2 Pro cible d’abord les workloads à forte valeur, assistants de développement, outils de transformation applicative, analyse avancée de données et d’événements, voire cerveau d’orchestrateurs d’agents. C’est aussi le modèle destiné à jouer le rôle de professeur pour distiller des modèles plus petits et spécialisés, capables de conserver des performances acceptables avec des coûts nettement inférieurs.
Nova 2 Sonic, la voix au service des agents temps réel
Nova 2 Sonic constitue le modèle « voix à voix » de la famille. Il unifie compréhension et génération vocale au sein d’un même modèle et s’appuie sur une API de streaming conçue pour les interactions en temps réel. Sonic gère déjà plusieurs langues, propose des voix expressives et polyglottes et permet de passer naturellement du texte à la voix dans une même session, tout en conservant une fenêtre de contexte pouvant atteindre un million de tokens.
AWS le positionne face aux offres temps réel d’OpenAI et de Google et affirme offrir un meilleur rapport prix qualité que gpt-realtime et Gemini 2.5 Flash pour les centres de contact, assistants vocaux et réceptionnistes automatiques. Pour les DSI, l’intérêt est de pouvoir unifier canaux texte et voix sur une même pile technologique Bedrock et Nova, plutôt que de multiplier les modèles spécialisés.
Nova 2 Omni, un modèle réellement multimodal
Nova 2 Omni apparaît comme la pièce la plus stratégique de la gamme, un modèle de raisonnement multimodal qui ingère texte, images, vidéo et audio et qui peut générer à la fois du texte et des images de haute qualité. AWS revendique des capacités de contexte pouvant atteindre 750 000 mots, de quoi couvrir des heures de vidéo ou d’audio et des centaines de pages de documents.
L’objectif est d’éliminer la nécessité de chaîner plusieurs modèles spécialisés. Un seul Nova 2 Omni peut par exemple analyser un catalogue produit, des retours clients, des guidelines de marque et une bibliothèque vidéo, puis générer une campagne complète avec textes, scripts et visuels. AWS affirme qu’il n’existe pas aujourd’hui de modèle réellement comparable sur le marché et, si cette promesse se confirme en production, la différenciation serait réelle face aux stacks Azure OpenAI et Google Cloud.
Bedrock, colonne vertébrale de la stratégie IA d’AWS
Bedrock est devenu le point d’entrée unique d’AWS pour la GenAI. Le service revendique plus de 100 000 organisations utilisatrices, des startups aux grandes entreprises régulées, et s’impose comme la plateforme d’IA de production du cloud d’Amazon. Elle permet de créer et déployer des applications d’IA générative en s’appuyant sur des modèles de fondation accessibles via API, sans avoir à gérer l’infrastructure ni entraîner soi-même les modèles. Grâce à Bedrock, les utilisateurs peuvent aussi personnaliser ces modèles avec leurs propres données, relier leurs applications à des bases de connaissances internes et bénéficier de mécanismes de sécurité avancés pour protéger les informations sensibles et réduire les risques de contenus inappropriés ou d’hallucinations.
Depuis sa sortie, Bedrock est souvent salué et montré en exemple pour sa simplicité d’utilisation (qui facilite l’intégration rapide de l’IA générative dans les workflows existants), pour sa flexibilité et diversité de choix de modèles, pour sa robustesse et pour son intégration fluide avec l’écosystème AWS, permettant aux entreprises de tirer parti de leurs environnements cloud existants sans surcoût d’infrastructure.
L’intérêt de Bedrock réside, enfin, dans sa capacité à unifier l’accès à des centaines de modèles propriétaires, open weight ou partenaires derrière une API cohérente, avec un outillage commun pour la sécurité, la gouvernance et l’optimisation des coûts.
À re:Invent 2025, AWS annonce la plus vaste extension de son catalogue Bedrock avec 18 nouveaux modèles open weight, dont Mistral Large 3 et la série Ministral 3, mais aussi Gemma 3 de Google, MiniMax M2, Nemotron de NVIDIA et les modèles GPT-OSS et GPT-OSS Safeguard d’OpenAI.
Autre nouveauté, Bedrock AgentCore, la brique dédiée aux agents de production, gagne trois capacités structurantes avec un moteur de politiques « Policy » qui bloque de manière déterministe et en temps réel les actions non autorisées, y compris en dehors du code de l’agent, un module d’évaluation « Evaluations » qui fournit des évaluateurs préconfigurés pour suivre qualité, sécurité ou conformité des comportements, et une mémoire épisodique « Memory » qui permet aux agents d’apprendre de leurs interactions passées. Ces briques répondent directement aux enjeux de contrôle des agents autonomes soulevés par les RSSI et les équipes de conformité.
AWS insiste enfin sur les mécanismes d’optimisation des coûts de Bedrock tels que la distillation, la mise en cache des prompts, le routage intelligent vers le bon modèle, et annonce des gains pouvant atteindre 75 pour cent sur les coûts d’inférence pour des modèles distillés et jusqu’à 30 pour cent grâce à l’intelligent prompt routing. Dans un contexte où chaque point de pourcentage sur le coût au million de tokens se traduit par des centaines de milliers d’euros sur un déploiement à grande échelle, ce positionnement tarifaire ne peut que parler au DSI qui après les PoC découvrent combien l’usage de l’IA leur coûte.
Pris isolément, Bedrock et Nova ne suffisent pas encore à effacer le retard d’image d’AWS sur l’IA générative. Ensemble, ils composent néanmoins une offre hyper cohérente pour une DSI, avec une plateforme unique pour orchestrer agents et données Bedrock et AgentCore, un catalogue très large de modèles partenaires, SageMaker JumpStart, et une famille de modèles maison conçue pour arbitrer finement performance, coût et gouvernance.
Avec Bedrock et Nova 2, le cloud d’Amazon se replace au centre du jeu, non pas avec un assistant star mais avec un portefeuille de modèles et de services pensé pour l’ère des agents et des systèmes composables, exactement là où se jouent aujourd’hui les arbitrages des DSI.








puis