OpenAI a besoin de GPUs… de beaucoup de GPUs! Aussi bien pour l’entraînement de ses modèles que pour leurs inférences. Microsoft avait déjà fait appel à Oracle Cloud pour soulager les infrastructures Azure de Bing AI. L’éditeur renouvelle ce partenariat pour les IA d’OpenAI.
Microsoft est l’un des plus gros clients de NVidia. Mais il est très loin d’être le seul gros demandeur de ces GPU nécessaires à l’IA. Pénurie du marché des GPU et inflation des prix obligent la firme dirigée par Satya Nadella à aller chercher des ressources hors de ses propres infrastructures Azure.
En novembre dernier, Microsoft et Oracle annonçaient un accord permettant à Bing de louer avantageusement des GPU et des ressources informatiques sur Oracle Cloud Infrastructure (OCI). Les deux clouds sont assez proches depuis plusieurs années avec notamment une interconnexion optimisée pour permettre aux clients communs d’exploiter pleinement les services des deux clouds.
L’accord permettait ainsi à Microsoft de faire déborder sur OCI les workloads d’inférence IA de Bing Chat normalement hébergés sur Azure.
Cette semaine, Microsoft, Oracle et OpenAI ont annoncé un nouveau partenariat visant à étendre la plateforme Microsoft Azure AI à Oracle Cloud Infrastructure (OCI). Cette collaboration a pour objectif de fournir des capacités supplémentaires à OpenAI et ses 100 millions d’utilisateurs chaque mois.
Une aubaine et un joli coup marketing pour le Cloud d’Oracle. « La course à la création du plus grand modèle de langage au monde est lancée, et elle alimente une demande illimitée pour l’infrastructure d’IA Gen2 d’Oracle », se réjouit Larry Ellison, Chairman et Chief Technology Officer d’Oracle. Il ajoute – un peu de marketing gratuit ne fait pas grand mal – que « les leaders comme OpenAI choisissent OCI car il s’agit de l’infrastructure d’IA la plus rapide et la plus rentable au monde. »
Une façon de rappeler que nombre de jeunes pousses de l’IA, à commencer par Adept, Modal, MosaicML, Reka, Suno, Together AI, Twelve Labs et même xAI (la startup IA d’Elon Musk) utilisent déjà OCI Supercluster pour entraîner et inférer des modèles d’IA de nouvelle génération.
Il est vrai qu’OCI a rapidement perçu l’opportunité de l’IA pour assoir sa position parmi les hyperscalers américains. Très tôt, le cloud d’Oracle a passé des commandes massives de GPU à NVidia pour construire son « OCI Supercluster », une infrastructure « HPC as a service » pensée pour l’IA qui peut accueillir jusqu’à 32 768 GPU. Une infrastructure qui évoluera bientôt pour accueillir les prochains GPU « Blackwell » de NVidia.