En 48 heures, AMD a scellé deux accords stratégiques majeurs : un partenariat titanesque avec Meta pour l’infrastructure IA, et un investissement de 250 millions de dollars dans Nutanix pour porter l’IA agentique en entreprise. Le fondeur de Santa Clara déploie une stratégie d’alliance tous azimuts pour challenger Nvidia.
Cette semaine, Meta et AMD ont officialisé un accord pluriannuel et multigénérationnel portant sur le déploiement de jusqu’à 6 gigawatts de GPU AMD Instinct dans les datacenters de Meta. Selon plusieurs analystes, ce contrat représenterait une enveloppe de l’ordre de 100 milliards de dollars sur cinq ans, l’une des plus grandes commandes d’infrastructure IA jamais passées, si ce n’est la plus grande.
Une aubaine pour AMD qui petit à petit réussi à s’imposer dans un écosystème IA archi dominé par Nvidia mais en quête de diversification d’approvisionnement dans un univers de GPU et mémoire en tension.
Un modèle financier inédit : actions contre puces
Les premières livraisons débuteront au second semestre 2026. Elles s’appuieront sur un GPU Instinct personnalisé basé sur l’architecture MI450, optimisé pour les charges de travail de Meta, ainsi que sur les processeurs EPYC de 6e génération (nom de code Venice). L’ensemble sera intégré dans l’architecture rack Helios, co-développée par les deux entreprises dans le cadre de l’Open Compute Project (OCP).
Mark Zuckerberg a précisé que ce matériel serait principalement dédié à l’inférence et à ce qu’il qualifie de « superintelligence personnelle », leitmotiv résumant l’ambition de Meta de doter chaque utilisateur d’un agent IA avancé. L’accord s’inscrit dans l’initiative Meta Compute, qui vise à diversifier les sources d’approvisionnement en silicium. Car Meta ne met pas tous ses œufs dans le même panier : la semaine précédente, le groupe avait annoncé le déploiement de systèmes NVL72 de Nvidia avec des CPU Grace basés sur Arm.
L’accord Meta-AMD se distingue aussi par sa structure financière. AMD a émis au profit de Meta des warrants (bons de souscription) portant sur un maximum de 160 millions d’actions AMD, soit environ 10 % du capital du fondeur. Ces titres seront acquis progressivement, à mesure que les jalons de déploiement (en gigawatts) seront atteints. La dernière tranche n’est libérée que si le cours de l’action AMD atteint 600 dollars d’ici 2031. Un mécanisme qui aligne étroitement les intérêts des deux parties et que AMD avait déjà expérimenté avec OpenAI en octobre 2025.
AMD injecte 250 millions de dollars dans Nutanix
Autre annonce de la semaine, AMD a signé un étonnant partenariat stratégique pluriannuel avec Nutanix. Le fondeur investira 150 millions de dollars en actions Nutanix (au prix de 36,26 dollars par titre) et financera jusqu’à 100 millions de dollars supplémentaires en ingénierie conjointe et en actions commerciales.
L’objectif : co-développer une plateforme d’infrastructure IA ouverte et « full-stack », conçue pour faire tourner des applications d’IA agentique partout, dans les datacenters, en environnement hybride et en edge computing. Concrètement, les logiciels AMD ROCm et AMD Enterprise AI seront intégrés dans la Nutanix Cloud Platform et la Nutanix Kubernetes Platform, le tout optimisé pour les CPU EPYC et les GPU Instinct d’AMD. La première plateforme issue de cette collaboration devrait arriver sur le marché fin 2026.
« Les entreprises ont besoin de la liberté de faire tourner les modèles et les charges de travail qui comptent pour elles, sans compromis », explique Dan McNamara, vice-président senior d’AMD en charge du Compute et de l’IA d’entreprise. Côté Nutanix, le CEO Rajiv Ramaswami note que « notre objectif est d’offrir le choix au client. Nvidia est le leader du marché, AMD est l’autre grand acteur. »
L’annonce intervient dans un contexte favorable pour Nutanix, qui a publié le même jour ses résultats du deuxième trimestre fiscal : un chiffre d’affaires de 723 millions de dollars en hausse de 10 % sur un an, et un revenu annuel récurrent (ARR) de 2,36 milliards de dollars en progression de 16 %. Le spécialiste de l’infrastructure hyperconvergée a par ailleurs signé 1 000 nouveaux clients sur le trimestre, dont la majorité migrent depuis VMware. L’action Nutanix a bondi de près de 20 % en cotation hors séance après ces annonces combinées.
On rappellera que Nutanix a lancé une plateforme dénommée ‘NAI’ (Nutanix Enterprise AI) conçue pour déployer, exposer et opérer des services d’inférence (inference = exécuter un modèle en production pour répondre à des requêtes) et des “endpoints” sécurisés (API d’accès contrôlé aux modèles) sur tout Kubernetes certifié CNCF (CNCF = fondation qui standardise l’écosystème cloud-native), à commencer par sa propre couche Kubernete NKP. Nutanix emballe également cette solution dans une offre plus directement consommable : GPT-in-a-Box. Jusqu’ici ces piles d’infrastructure reposaient sur NVidia (et les composantes clés de sa plateforme Nvidia Enterprise AI avec NIM et NeMo). C’est toute cette pile ‘NAI’ qui s’ouvre désormais aux GPU AMD et à l’écosystème ROCm et AMD Enterprise AI.
AMD, architecte d’une alternative ouverte à Nvidia
En l’espace de deux jours, AMD a tracé de nouveaux contours à son ambitieuse stratégie de reconquête des puces IA, là où Intel s’est plutôt pris les pieds dans le tapis et semble avoir en partie abandonner la lutte. Avec Meta, AMD s’installe durablement dans les infrastructures IA des hyperscalers, en misant sur l’inférence à très grande échelle. Avec Nutanix, il prend position sur le terrain de l’IA d’entreprise et de l’edge, là où les DSI cherchent des solutions flexibles, multi-fournisseurs et non verrouillées. Ainsi, le fil rouge de ces deux opérations se résume en un mot : « l’ouverture ». Face à l’écosystème CUDA de Nvidia, qui reste la référence pour l’entraînement des modèles de pointe, AMD mise sur la stack logicielle ROCm (de plus en plus populaire), les standards ouverts (OCP, Kubernetes) et une politique d’alliance agressive, quitte à céder une part de son capital pour sécuriser des commandes massives et faire mûrir son écosystème.
Pour les DSI et RSSI européens, ces mouvements ne sont pas anodins. L’émergence d’une alternative crédible à Nvidia sur l’inférence IA et l’infrastructure d’entreprise ouvre la voie à davantage de choix technologique et, potentiellement, à une meilleure maîtrise des coûts d’infrastructure IA dans les années à venir.
_____________________________





puis