Alors que Microsoft a fait de l’IA la technologie porteuse de sa croissance, l’éditeur envisagerait désormais d’imposer un NPU dans ses PC « Surface » et développerait son propre GPU accélérateur d’IA pour son cloud Azure.

On le sait, en 2023 Microsoft joue un « all-in » sur l’IA. L’éditeur a annoncé des IA Copilot pour son moteur de recherche, pour ses outils d’entreprise (Dynamics 365 Copilot), pour ses outils collaboratifs (Microsoft 365 Copilot), pour les analystes en cybersécurité (Microsoft Security Copilot), et pour les développeurs (GitHub Copilot et les services OpenAI sur Azure). Pas un pan de son activité, pas un seul de ses logiciels, ne sera pas plus ou moins impacté par les IA.

Reste que pour entraîner puis animer toutes ces IA, il faut des ressources informatiques massives. Selon une étude TrendForce, un service comme ChatGPT nécessiterait 30.000 GPU A100 de NVidia. À raison de 15.000 euros la carte à GPU A100, ChatGPT serait donc entraîné et animé par une infrastructure coûtant plus d’un demi-milliard de dollars. Et ça juste pour ChatGPT.

Maintenant ajoutez y tous les services IA d’OpenAI, tous les services IA de Microsoft et tous ceux des entreprises qui développent des IA sur Azure, et vous avez une petite idée des économies d’échelle possible pour Microsoft si l’entreprise disposait de son propre processeur IA plutôt que de s’appuyer sur les GPU de NVidia.

Des GPU « fait maison » pour les Clouds

Amazon a depuis longtemps fait le calcul et développe depuis plusieurs années déjà ses propres accélérateurs d’entraînement « AWS Trainium » et ses propres accélérateurs d’inférence « AWS Inferentia 2 ».
Google en fait de même avec ses TPU (Tensor Processing Unit) maison qui en sont déjà à la quatrième génération. Google développe même son propre processeur Tensor G1/G2 doté d’un accélérateur IA NPU pour ses fameux smartphones Pixel.

De son côté, Microsoft a jusqu’ici plutôt tablé sur les FPGA (des sortes de processeurs non figés que l’on peut reconfigurer pour accélérer des tâches précises) et les a intégrés dans Azure (FPGA basés sur du hardware Intel). L’éditeur affirme même que « Azure représente le plus grand investissement au monde dans les FPGA ». En mars dernier, Microsoft expliquait utiliser les FPGA pour l’évaluation des réseaux neuronaux profonds (DNN), le classement des recherches Bing et l’accélération des réseaux définis par logiciel (SDN) afin de réduire les latences, tout en libérant les CPU à d’autres tâches.

Toutefois, si l’on en croit les informations du site « The Information », Microsoft développerait en parallèle son propre GPU accélérateur d’IA et ceci depuis 2019. Un projet dénommé « Athena » qui serait récemment entré en phase de tests. Le processeur pourrait ainsi entrer en production dès 2024 et se généraliser sur les serveurs Azure dédiés aux workloads IA.

On en saura peut-être plus à l’occasion de la conférence Build 2023 du 23 au 25 mai.

Des NPU aussi dans les Surface

Par ailleurs, Microsoft semble également convaincue que les ordinateurs personnels ne peuvent plus se passer d’accélérateur IA. À l’heure actuelle, seules les Surface Pro à base de processeurs ARM (de chez Qualcomm codéveloppé avec Microsoft) intègrent un NPU permettant d’accélérer les inférences. C’est pourquoi, seules ses Surface à processeurs « Microsoft SQ » bénéficient de fonctionnalités connues sous le nom de Windows Studio Effects améliorant le rendu sonore et visuel lors des visioconférences.

Selon le site Thurrot.com, Microsoft devrait intégrer un NPU dans toutes ses prochaines générations de machines Surface, qu’elles soient en technologie ARM/Qualcomm ou x86/Intel. L’histoire ne dit pas si Microsoft a développé un NPU maison, veut simplement utiliser des CPU à NPU intégré, ou veut intégrer un NPU tiers commun à toutes les futures machines.