AWS s’invite au cœur des datacenters avec ses AI Factories, de véritables usines IA prêtes à l’emploi pour les grandes organisations et celles des secteurs critiques. Entre accélérateurs Trainium3, GPU Blackwell et services managés, le géant du cloud joue la carte de la souveraineté et de l’IA exécutée localement… à sa manière.
AWS n’a jamais été un grand promoteur des scénarios hybrides. Sa conversion au sujet est relativement récente, rendue nécessaire par la pression règlementaire en Europe et les besoins critiques de certaines organisations réfractaires au cloud.
Autant dire que l’annonce des AWS AI Factories est un peu une surprise. AWS dégaine là un concept qui va parler aux DSI des secteurs critiques. C’est une infrastructure IA clé en main installée directement dans le datacenter du client. L’idée est simple : plutôt que courir après les GPU, les ingénieurs et les bons choix d’architecture pendant des années, AWS propose un bloc d’infrastructure IA prêt à l’emploi, posé derrière vos firewalls mais opéré par ses équipes.
Trainium3 et GPU Nividia chez soi…
Concrètement, une AI Factory agrège dans une même offre des accélérateurs ‘maison’ Trainium3, des GPU Nvidia de dernière génération (Blackwell B200/B300), le réseau maison basse latence (Nitro, Elastic Fabric Adapter, UltraClusters), le stockage et les bases de données hautes performances, plus les services IA managés comme Amazon Bedrock et SageMaker. Le client apporte les mètres carrés, la puissance électrique et la connectivité. AWS se charge du reste : design, intégration, opérations et mise à jour de la stack complète.
AWS présente ces AI Factories comme des « régions privées » pour l’IA : des environnements isolés, dédiés à un client ou à une communauté de confiance, qui offrent un accès local et à faible latence à la puissance de calcul et aux services IA AWS, tout en permettant de respecter des exigences strictes de souveraineté, de résidence des données et de conformité sectorielle.
Pour démontrer l’ambition industrielle du concept, AWS met en avant un premier projet massif avec HUMAIN, en Arabie saoudite : une « AI Zone » dimensionnée jusqu’à 150 000 puces IA (Trainium et Nvidia) dans un datacenter dédié. On n’est plus dans le POC, mais dans la gigafactory de calcul, capable d’entraîner et d’exécuter des modèles de très grande taille pour un pays, un écosystème ou un champion national.
Une stratégie hybride mais pas souveraine en Europe
Les AI Factories prolongent et radicalisent la stratégie hybride d’AWS. Là où Outposts amenait quelques racks AWS chez le client et où les Dedicated Regions recréaient une région complète pour un seul acteur, les AI Factories assument une spécialisation IA à grande échelle. Elles capitalisent sur l’alliance très serrée avec Nvidia et font des Trainium3 les briques de base de ces usines à modèles, pensées pour l’entraînement et l’inférence intensifs. Autrement dit, les nouvelles puces d’AWS ne sont pas qu’une alternative économique aux GPU : elles deviennent le ciment d’un modèle industriel où l’hyperscaler livre des capacités IA par campus entier.
Pour une DSI européenne, la question est frontale. Faut-il continuer à assembler son propre campus IA – en combinant colocation, GPU, clouds de confiance, clusters Kubernetes, services MLOps – ou acheter un campus AWS « plugué » dans son datacenter, avec une stack optimisée mais fortement intégrée au cloud américain et donc soumise en théorie aux lois extra-territoriales ?
L’AI Factory promet un time-to-value nettement plus court, une forte réduction du risque de projet et un interlocuteur unique. En contrepartie, elle concentre souveraineté technique, dépendance contractuelle et trajectoire d’innovation sur un seul fournisseur… aux origines américaines.
Le timing n’est pas neutre. L’Union européenne pousse ses propres « AI factories » publiques, dans le cadre des programmes HPC-IA et de l’AI Act. Les régulateurs affûtent NIS2, DORA et les doctrines « cloud de confiance ». C’est dans ce paysage que les AI Factories d’AWS viennent se placer : des usines IA privées, livrées clés en main dans les datacenters nationaux, avec la promesse d’une IA de classe mondiale, des modèles exécutés localement y compris ceux très « souverains » de Mistral AI… mais sous bannière AWS.
Avec ses AI Factories, AWS ne se contente plus de vendre des régions : l’hyperscaler ambitionne de livrer des usines IA derrière les murs de ses clients. Aux DSI de décider jusqu’où elles sont prêtes à laisser entrer AWS dans leur datacenter, et comment articuler ces AI Factories avec les offres des neoclouds européens et leurs propres investissements on-premises. Une histoire à suivre…





puis