La montée en flèche des besoins en calcul de l’IA propulse les datacenters dans une transformation radicale, où hyperscale, edge computing et durabilité doivent avancer de concert. Du refroidissement haute densité à l’intégration des jumeaux numériques, l’IA ne se contente pas d’utiliser les datacenters : elle les réinvente, jusqu’à en automatiser chaque recoin.
La demande croissante de ressources informatiques pour l’IA a un impact considérable sur les infrastructures. Le secteur s’efforce de répondre à cette demande en termes d’énergie, d’évolutivité et d’efficacité, ce qui se traduit par une augmentation des investissements dans la reconfiguration des architectures des datacenters. Le défi majeur autour de l’IA réside dans ses besoins considérables en puissance de calcul. Compte tenu de la complexité croissante de l’IA, les datacenters doivent s’adapter rapidement. À titre d’illustration, on prévoit que d’ici 2027, la consommation énergétique des workloads liées à l’IA dépassera celle de l’Argentine.
Il n’existe pas de solution unique
L’IA redéfinit l’architecture de tous les types de datacenters : hyperscalers, sur site, en colocation et en périphérie. Jusqu’à présent, l’attention s’est surtout portée sur la course à l’armement des hyperscalers. La demande exponentielle de ressources informatiques crée des clusters d’IA dont les sites dépassent 1GW de capacité. McKinsey prévoit que d’ici 2030, plus de 60 % des workloads d’IA en Europe et aux États-Unis seront hébergés sur des infrastructures hyperscale.
De l’hyperscale à la périphérie : le spectre architectural
Afin de prendre en charge les workloads d’IA tels que la formation de grands modèles de langage (LLM), les datacenters doivent repenser leur conception et leur architecture. Des solutions de refroidissement améliorées et une capacité d’alimentation accrue (200-300 kW par rack) sont nécessaires pour faire face aux calculs intensifs. L’intégration de matériel spécialisé tel que des GPU et TPU, ainsi que des systèmes de stockage évolutifs, est essentielle pour gérer les données volumineuses et les calculs. L’adoption d’architectures désagrégées permet une gestion et une mise à l’échelle indépendantes du matériel, optimisant ainsi l’utilisation des ressources pour différentes workloads. Enfin, la mise à jour des architectures réseau est cruciale pour gérer les modèles de trafic d’IA et prévenir les goulets d’étranglement qui entravent les performances des clusters d’IA.
En plus des grandes installations, l’IA entraîne une demande d’infrastructures décentralisées, pour permettre le traitement local des données. Cela nécessite des datacenters conçus pour les workloads en périphérie, c’est-à-dire capables de hautes performances dans un espace physique réduit et avec une consommation d’énergie moins importante. Ce marché devrait dépasser les 160 milliards de dollars d’ici 2030, avec le déplacement du traitement des données vers la périphérie.
Cette croissance résulte du besoin de gérer le traitement des données en temps réel au plus proche des utilisateurs. Cela est essentiel pour des applications comme la conduite autonome, où la rapidité de décision est cruciale. Cette proximité réduit la latence et contribue à un monde hyperconnecté, soutenu par les technologies IoT et 5G.
L’infrastructure de l’IA doit évoluer pour prendre en charge la transition de la formation à l’inférence, car les workloads d’inférence augmentent plus rapidement que les modèles de formation avec l’adoption croissante de l’IA. DeepSeek R1 et OpenAI v3 sont des exemples de systèmes de raisonnement qui utilisent des modèles formés pour évaluer les données en temps réel et exécuter des tâches ou faire des prédictions.
Les données seront principalement générées par des appareils connectés en périphérie. Par conséquent, les installations doivent être conçues pour prendre en charge des réseaux à faible latence avec une allocation flexible des ressources, afin de gérer les pics imprévisibles de la demande d’inférence.
Évoluer pour et avec l’IA
Paradoxalement, l’IA est à la fois le problème et la solution. L’intelligence est essentielle pour résoudre les problèmes de mise à l’échelle et garantir l’efficacité des opérations. L’IA peut moderniser les datacenters de nombreuses façons, notamment en améliorant l’efficacité énergétique :
L’optimisation de l’efficacité énergétique est un facteur clé de la durabilité des opérations. Le déploiement de l’IA permet un ajustement automatisé des systèmes de refroidissement et des workloads des serveurs pour une adaptation en temps réel aux pics de demande. La mise en œuvre de techniques intelligentes d’économie d’énergie réduit le gaspillage et les coûts opérationnels, tout en maintenant les niveaux de performance. Google, par exemple, a diminué de 40 % l’énergie de refroidissement de ses datacenters grâce à de telles initiatives.
La maintenance prédictive permet de minimiser les temps d’arrêt et de prolonger la durée de vie de l’infrastructure grâce à l’anticipation des problèmes par le biais du machine learning. La planification proactive des réparations et des mises à jour optimise l’utilisation des ressources, ce qui a un impact considérable compte tenu des coûts et des défis liés à la mise à l’échelle d’une infrastructure.
L’intelligence artificielle et les jumeaux numériques travaillent ensemble pour créer des modèles dynamiques qui testent et valident les composants et les systèmes. Ces modèles garantissent que les datacenters complexes peuvent faire face aux demandes futures en optimisant les opérations, en analysant les données historiques et en identifiant les goulets d’étranglement potentiels. Pour créer une infrastructure évolutive, efficace et fiable, il est essentiel d’utiliser des outils avancés de test et de simulation ainsi que des workloads d’IA.
L’intelligence artificielle (IA) jouera un rôle clé dans l’évolution des datacenters. Grâce à elle, ces derniers deviendront intelligents et entièrement autonomes, réduisant ainsi considérablement le besoin d’intervention humaine. L’IA prendra en charge la quasi-totalité des opérations, telles que la surveillance, la maintenance, la mise en réseau, la gestion de l’énergie et la sécurité.
Une infrastructure d’IA à l’épreuve du temps
L’infrastructure des datacenters doit évoluer pour prendre en charge les workloads de plus en plus complexes générées par l’essor de l’IA. Il est essentiel de développer une infrastructure flexible, évolutive et fiable, capable de s’adapter rapidement à l’évolution des demandes de l’IA tout en maintenant des performances élevées.
Les fournisseurs qui réussiront dans la révolution de l’IA seront ceux qui sauront exploiter la puissance de l’hyperscale tout en maintenant l’agilité de la périphérie grâce à l’orchestration des systèmes d’IA. Cette capacité à trouver l’équilibre sera un facteur clé de différenciation entre les gagnants et les perdants de la course à l’innovation.
____________________________
Par Marie Hattar, Senior Vice President et Chief Marketing Officer de Keysight Technologies