À l’occasion de la conférence GTC 2025, Nvidia a dévoilé sa feuille de route des prochains mois et prochaines années avec une farouche volonté de ne pas se laisser rattraper par la concurrence. Une feuille de route qui s’annonce brûlante avec Blackwell Ultra, les CPU « Vera » et les futurs GPU « Rubin ».
Le problème quand on est leader et que l’on écrase le marché de sa suprématie, c’est que les concurrents redoublent d’énergie et de focalisation dans leurs investissements pour refaire leur retard et vous rattraper. Ce qui rend la position complexe à tenir alors qu’en leader vous essayez de défricher les futurs terrains.
Conscient du risque, Nvidia multiplie les annonces à chaque occasion, comme pour maintenir son élan et étouffer les discours d’une concurrence qui peine à se faire entendre. Et la firme n’allait pas manquer l’occasion de sa GTC 2025 (GPU Technology Conference, organisée par NVidia) pour tenter à nouveau d’abreuver les chercheurs, développeurs et ingénieurs présents de nouveautés en tous genres.
Blackwell Ultra : toujours plus fort
Les GPU Blackwell sont à peine disponibles et commencent à peine à être livrés aux hyperscalers que Nvidia annonce déjà un nouveau modèle boosté. Prévu pour le second semestre 2025, le GPU Blackwell Ultra « B300 » représente une évolution significative de l’architecture Blackwell. Il offre une augmentation de 50 % des performances en virgule flottante dense (FP4) par rapport à son prédécesseur, avec une bande passante mémoire de 8 To/sec !
Cette avancée est rendue possible par la réduction des unités de calcul en double précision au profit d’unités FP4 et FP6, ciblant ainsi spécifiquement les nouveaux modèles IA qui tendent à abandonner le FP8/FP16 au profit d’une moindre précision qui permet d’en faire plus sans réellement impacter la pertinence des réponses. Le B300 affiche ainsi une performance FP4 de 30 PétaFLOPS !
Nvidia concrétise actuellement son Blackwell Ultra sous forme de trois nouvelles solutions :
Le HGX™ B300 NVL16 est une plateforme modulaire pour serveurs qui intègre 16 GPU B300. Elle est conçue pour être flexible et s’adapter à divers besoins en IA, offrant une performance élevée tout en permettant une intégration plus aisée dans différentes infrastructures de centres de données.
Le GB300 NVL72 est une solution rack complète qui se comporte comme un seul et unique GPU et qui intègre 72 GPU B300 et 36 processeurs Grace (CPU) de NVIDIA. Cette configuration massive est destinée aux centres de données nécessitant une puissance de calcul exceptionnelle pour des tâches d’IA à grande échelle.
La GB300 DGX Station qui se présente comme une déclinaison clé en main pour entreprise de la plateforme GB300 NVL72.
Par ailleurs, Nvidia propose également un « DGX SuperPOD Blackwell Ultra » qui combine 8 racks NVL72 pour un total de 288 CPU « Grace », 573 GPU « B300 », 38 To de mémoire HBM3 et une puissance totale de 11,5 ExaFLOPS en FP4 ! Oui, ça décoiffe !
Vera : l’architecture CPU sur mesure de Nvidia
En 2026, Nvidia introduira Vera, sa première architecture CPU conçue sur mesure, marquant une transition notable par rapport aux cœurs Arm Neoverse utilisés précédemment sur ses CPU « Grace ».
Vera comportera 88 cœurs Arm personnalisés, supportant 176 threads par socket, et intégrera une connectivité NVLink chip-to-chip de 1,8 To/s pour une interaction optimisée avec les GPU Rubin.
Rubin : la prochaine génération de GPU
Et le successeur de Blackwell pointe déjà à l’horizon. L’architecture GPU Rubin, prévue pour le second semestre 2026, s’appuiera sur une conception à deux puces XXL fabriquées en 3 nm par TSMC. Chaque package Rubin offrira jusqu’à 50 pétaFLOPS de performance FP4, triplant ainsi les capacités par rapport au B200. Ces GPU seront équipés de 288 Go de mémoire HBM4 et offriront une bande passante de 13 To/s.
En 2027, Nvidia prévoit de lancer Rubin Ultra, une version améliorée de Rubin, doublant le nombre de puces par package pour atteindre 100 pétaFLOPS de performance FP4 et intégrant 1 To de mémoire HBM4e. Ces avancées permettront de construire des racks de serveurs consommant jusqu’à 600 kW, capables de délivrer 15 exaFLOPS de performance FP4 pour l’inférence et 5 exaFLOPS pour l’entraînement des modèles IA.
Bref, Nvidia est bien déterminée à repousser les limites de l’innovation technologique et de l’IA. La firme ne semble pas réellement craindre de se faire rattraper et affiche une certaine transparence sur ce qu’il prépare à court terme, fixant ainsi les niveaux de performance à atteindre pour ses concurrents. Reste que cette effervescence ne doit pas masquer pour autant une réalité plus complexe où les défis se multiplient : tarifs américains, concurrence qui se réveille, et évolution des priorités de ses clients majeurs (avec notamment des hyperscalers qui développent leurs propres CPU et accélérateurs IA).