Après une première tentative plus expérimentale qu’industrielle, Meta aurait développé un second accélérateur IA propriétaire dénommé Artemis et s’apprêterait à le déployer dans ses datacenters.
AWS a développé ses propres processeurs Inferentia2 et Trainium2 pour optimiser les workloads IA sur son cloud. Google en a fait de même avec ses TPU. Microsoft a récemment annoncé avoir conçu des accélérateurs « maison » Maïa100. Des initiatives motivées par un besoin croissant d’accélérer les inférences et l’apprentissage des IA tout en réduisant la consommation énergétique et en s’affranchissant des surcoûts des GPU dans un marché en ultra haute tension.
Selon Reuters, un autre acteur majeur de l’IA s’apprêterait aussi à faire des infidélités à NVidia pour booster ses modèles. Et cet acteur n’est autre que Meta, dont le laboratoire R&D « Fair » est à l’origine de nombreuses avancées dans les réseaux Deep Learning et à l’origine de modèles réputés comme LLama 2 (LLM), Code LLama (génération de code informatique), DINOv2, FAISS…
Meta prévoit ainsi de déployer dès cette année dans ses propres datacenters un nouvel accélérateur répondant au nom de code « Artemis » et présenté comme une évolution du chip « MTIA » annoncé l’an dernier par le laboratoire de recherche de Facebook. L’information tombe alors que le groupe a annoncé prévoir 9 milliards de dollars d’investissements supplémentaires sur l’IA en 2024.
Mark Zuckerberg révélait récemment à The Verge que Meta disposerait de plus de 340.000 GPU HJ100 de NVidia d’ici la fin de l’année, doublant le nombre de GPU installés dans ces datacenters pour booster les apprentissages des modèles.
Reste que très peu d’informations ont jusqu’ici filtré sur Artemis. S’il dérive effectivement de l’ASIC MTIA v1, ce nouveau chip devrait une nouvelle fois être essentiellement dédié à l’accélération des inférences. En annonçant MTIA v1, Meta avait laissé entrevoir les pistes d’amélioration poursuivies par ses ingénieurs : « À l’avenir, dans notre quête d’une solution meilleure et plus efficace, nous nous efforçons de trouver un équilibre entre les trois axes (puissance de calcul, bande passante de mémoire et bande passante d’interconnexion) afin d’obtenir les meilleures performances pour les charges de travail de Meta ». Il y a fort à parier qu’Artémis réponde à ce cahier des charges.
À lire également :
Ignite 2023 : Microsoft officialise ses processeurs « maison » Maia & Cobalt pour Azure
AWS officialise ses processeurs Graviton4 et Trainium2
Google veut mettre ses propres processeurs dans son cloud
Ignite 2023 : Microsoft met des GPU dans ses Cloud PC