Précurseur de cette tendance qui voit les hyperscalers développer leurs propres processeurs maisons pour optimiser certains Workloads confiés à leurs Clouds, Amazon annonce deux nouveaux chips pour son cloud AWS, tous deux très focalisés IA : Trainium2 et Graviton4.
Sans réelle surprise, AWS a dévoilé à « re:Invent 2023 » deux nouveaux processeurs maison avec en ligne de mire un gain d’efficience notable sur les workloads IA. Rappelons qu’il y a à peine 10 jours, Microsoft avait aussi annoncé ses premiers chips « maison » pour Azure, les Cobalt-100 et Maia-100. Bien sûr, AWS a en la matière bien plus d’expérience puisqu’il produit des CPU (les Graviton) et des accélérateurs IA (Trainium et Inferentia) depuis déjà plusieurs années.
Un Graviton génération 4
Le Graviton4, un processeur compatible ARM et conçu sur mesure par Amazon, est la dernière innovation de la série Graviton, lancée en 2018. À ce jour, AWS affirme avoir déployé plus de deux millions de puces Graviton, utilisées par plus de 50 000 clients dans 150 types d’instances.
Sur le papier, Graviton4 serait 30% plus performant à nombre de coeurs égal, offrirait 50% plus de cœurs et 75% de bande passante supplémentaire que le Graviton3.
Selon David Brown, vice-président de l’informatique et du réseau chez AWS, Graviton4 est « le processeur le plus puissant et le plus écoénergétique jamais construit pour un large éventail de charges de travail ». Il est doté de 96 cœurs ARM Neoverse V2, chacun doté de 2 Mo de cache L2, et prend en charge 12 canaux de mémoire DDR5 5600MT/s. Il améliore également la sécurité avec le support du trafic chiffré pour toutes ses interfaces matérielles.
Les instances R8g d’Amazon, optimisées pour la mémoire et adaptées à des charges de travail telles que les bases de données hautes performances, les caches en mémoire et l’analyse de grandes volumétries de données, seront les premières à bénéficier du Graviton4.
Un Trainium2 pour l’apprentissage IA exaflopique
En parallèle, AWS a également mis à jour ses accélérateurs d’IA Trainium. La conception du Trainium2 se veut particulièrement axée sur l’apprentissage des grands modèles de langage (LLMs) et des modèles fondation des IA génératives. Il offre des performances en apprentissage quatre fois plus rapides que son prédécesseur, avec trois fois plus de capacité mémoire et une efficacité doublée.
Destiné à animer les nouvelles instances Trn2, le Trainium 2 permet de bâtir des clusters jusqu’à 100.000 puces au sein d’UltraClusters EC2. Selon AWS, rassembler ainsi 100.000 puces Trainium 2 procure 65 exaFlops de calcul IA (en virgule flottante sur 8 bits). Un tel cluster peut former un LLM de 300 milliards de paramètres en quelques semaines (contre plusieurs mois précédemment).
Ces nouvelles avancées technologiques témoignent de l’engagement d’Amazon envers l’innovation dans le cloud computing et l’intelligence artificielle, promettant des améliorations notables pour les développeurs et les entreprises qui s’appuient sur ces technologies.
À lire également :
Ignite 2023 : Microsoft officialise ses processeurs « maison » pour Azure
NVidia lance ses GPU H200 pour l’IA et Jupiter…
Ignite 2023 : Microsoft met des GPU dans ses Cloud PC
AWS Re:Invent 2023 : Amazon réinvente son Fire CubeTV en CloudPC