Qualcomm renoue avec l’univers des datacenters en misant sur l’inférence IA. Avec ses puces AI200 et AI250, le concepteur veut conjuguer efficacité énergétique et performance à grande échelle. Une stratégie qui s’appuie sur l’écosystème logiciel mature du NPU Hexagon. Mais le pari est loin d’être gagné d’avance…
Qualcomm s’est fait un nom dans la mobilité, celle des smartphones et tablettes. Depuis quelques mois, le fabricant commence aussi à se faire une place dans l’univers des PC et ses Snapdragon X2 promettent des Copilot+ PC en ARM particulièrement intéressants. Et plus récemment, Qualcomm a fait une entrée magistrale dans le Edge avec son acquisition d’Arduino ! Mais voilà que Qualcomm voit plus loin encore et annonce vouloir retenter de se faire une place dans l’univers des Datacenters ! Pour rappel, la firme américaine avait déjà tenté d’investir cet univers avec sa gamme de processeurs ARM « Centriq » au milieu des années 2010, une initiative vite abandonnée (dès 2018) par manque de soutien notamment de l’écosystème logiciel.
Si aujourd’hui l’écosystème software ARM est désormais plus ouvert et étoffé, ce n’est pas par cette voie que Qualcomm tente un retour dans les datacenters mais par une voie qui paraît pourtant bien plus difficile : celle de l’IA, alors même qu’Intel et AMD peinent à exister face au quasi-monopole de Nvidia.
Cette semaine, Qualcomm a dévoilé deux nouvelles puces d’accélération IA, les AI200 et AI250. Ces nouvelles puces ne sont pas destinées à l’entraînement des modèles, mais à l’inférence, c’est-à-dire à l’exécution des modèles déjà entraînés. Qualcomm insiste d’ailleurs lourdement sur ce positionnement clair, affirmant vouloir offrir une efficacité énergétique et un coût d’exploitation très significativement inférieurs à ceux de ses concurrents. « Avec l’AI200 et l’AI250, nous redéfinissons ce qu’il est possible de faire à l’échelle d’un rack pour l’inférence en IA » expliquent les responsables de cette nouvelle famille de processeurs chez Qualcomm.
Le premier modèle, l’AI200, sera disponible dès 2026. Il se distingue par une capacité mémoire impressionnante de 768 Go (en LPDDR) par carte, un chiffre supérieur à ce que proposent aujourd’hui Nvidia et AMD. Le second, l’AI250, attendu en 2027, introduira une architecture mémoire dite near-memory computing, censée multiplier par dix la bande passante effective tout en réduisant la consommation électrique. Qualcomm promet ainsi « un saut générationnel en efficacité et en performance ».
Les puces AI200 et AI250 dérivent directement du NPU « Hexagon » présent sur les puces Snapdragon pour mobiles et PC. Et c’est un atout car la popularité des puces Snapdragon font qu’il existe déjà toute une stack logicielle IA « Hexagon » mature et connue des développeurs. Notamment, tous les grands frameworks IA d’aujourd’hui supportent nativement le NPU Hexagon.
Qualcomm n’est pas entré plus en détail sur les spécifications techniques des AI200 et AI250. Mais le fabricant avait déjà introduit, relativement discrètement et plutôt à l’attention des hyperscalers, ses cartes « Cloud AI 100 Ultra », spécifiquement pensées pour l’inférence LLM des IA génératives : ces cartes PCIe 150W dotées de 128 Go de mémoire embarquaient 64 cœurs IA pour une puissance totale de 870 TOPS (en FP8). Chaque carte pouvant inférer un modèle de plus de 100 milliards de paramètres.
On peut s’attendre à ce que les AI200 et AI250 dépassent largement ces spécifications.
Les cartes accélératrices AI200 et AI250 seront aussi proposées sous forme de solutions racks complètes équipées d’un système de refroidissement liquide direct.
Dit autrement, les AI200 et AI250 seront proposées sous forme de puces seules, sous formes de cartes à intégrer à des serveurs ou sous forme de systèmes racks : « Nous avons voulu que nos clients puissent tout prendre ou composer à la carte », explique Durga Malladi, responsable de la stratégie data center.
L’approche est donc étonnante et pour l’instant encore très confidentielle. C’est plus à un « teasing » qu’à un véritablement lancement produit que Qualcomm s’est livré cette semaine. L’entreprise joue sur l’effet d’annonce, cherchant à susciter la curiosité du marché et à préparer le terrain auprès des investisseurs et des futurs clients. Même si un premier client a d’ores et déjà été dévoilé : la société saoudienne Humain prévoit de déployer ces racks Qualcomm à grande échelle dès 2026.
Reste à voir si ce retour dans le datacenter sera une réussite. Difficile d’en juger pour l’instant en l’absence de chiffres concrets. Mais la chose ne sera de toute façon pas aisée. Nvidia détient toujours entre 80% et 90% du marché des puces IA pour centre de données. Et la concurrence est déjà rude entre AMD, Intel, Cerebras et même Broadcom (sans parler des puces propriétaires des hyperscales, les Trainium et Inferentia d’AWS, TPU5 et Ironwood de Google, Maia-100 de Microsoft) pour se faire une place dans l’interstice laissé par Nvidia.





puis