Trop de clusters, pas assez de visibilité : les équipes IT jonglent avec des déploiements éparpillés à travers les régions cloud et des politiques hétérogènes. Google Multi-Cluster Orchestrator, ou Google MCO, promet de transformer ce casse-tête en un jeu de stratégie contrôlé.

Les containers se sont multipliés dans nos infrastructures aussi bien on-premises que cloud comme des petits pains. Ils sont partout. Et pour les orchestrer, Kubernetes s’est imposé comme la solution universelle et le pilier des stratégies cloud hybrides effaçant peu à peu l’importance des VM et des hyperviseurs. Avec un effet de bord prévisible : les organisations ont commencé à multiplier les clusters Kubernetes et doivent désormais jongler avec plusieurs clusters en interne comme dans leurs différents fournisseurs cloud de IaaS et PaaS.

Pour les équipes IT, cette réalité se traduit par une surcharge opérationnelle, particulièrement critique dans les infrastructures réparties sur plusieurs zones géographiques.

Google Cloud annonce cette semaine la preview publique de Multi-Cluster Orchestrator (MCO), un service conçu pour simplifier la gestion des workloads à travers plusieurs clusters Kubernetes. Ce nouvel outil fournit une couche d’orchestration centralisée qui abstrait les complexités de l’infrastructure Kubernetes sous-jacente en associant les workloads à la capacité disponible dans différentes régions.

MCO s’appuie sur Google Kubernetes Engine (GKE) Enterprise et complète d’autres solutions multi-clusters de Google Cloud, notamment Multi-Cluster Ingress et Multi-Cluster Service Mesh.

MCO dans le détail

Le service s’articule autour de quelques grandes idées fonctionnelles :

* L’orchestration des workloads sur de multiples clusters : MCO permet de gérer les déploiements sur plusieurs clusters comme une unité unique, tout en respectant les politiques de placement définies selon les préférences régionales, les domaines de défaillance et les considérations de capacité des clusters.

* La surveillance centralisée de la santé des clusters : L’outil intègre des capacités de monitoring offrant une visibilité sur l’état et les performances des applications dans l’ensemble de l’environnement multi-cluster.

* La remédiation automatisée aux pannes : En cas de panne régionale, MCO peut détecter automatiquement les défaillances et migrer les charges de travail vers des régions fonctionnelles, maintenant ainsi la disponibilité des applications sans intervention manuelle.

* L’intégration avec les outils existants et les chaînes CI/CD existantes  : Le service s’intègre aux flux de travail et outils existants, notamment via un plugin pour Argo CD permettant d’incorporer MCO dans les pratiques GitOps existantes.

Avantages pour les organisations

Il résulte de ces décisions fonctionnelles des bénéfices immédiats pour les équipes IT dont les trois principaux sont indubitablement :

* Une optimisation des ressources et donc des coûts : L’outil place intelligemment les workloads dans les clusters selon les capacités disponibles (comme les GPU par exemple), assurant une utilisation optimale des ressources sans engendrer de coûts superflus.

* Une Résilience accrue : En facilitant les déploiements sur plusieurs clusters, MCO renforce la tolérance aux défaillances régionales pour les applications critiques.

* Une séparation des responsabilités dans un esprit « Platform Engineering » : Les équipes plateforme peuvent se concentrer sur la définition des garde-fous et des politiques, tandis que les équipes applicatives se consacrent à leurs workloads.

MCO est évidemment intimement lié à GKE et se veut focaliser sur la remédiation automatisée lors des défaillances régionales, ce qui en fait une solution particulièrement adaptée pour les organisations déjà investies dans l’infrastructure Google Cloud. Elle simplifie le travail des équipes GitOps ainsi que celui des équipes d’ingénierie des plateformes ML/IA.

MCO s’inscrit dans une mouvance déjà initiée par des solutions comme EKS Anywhere sur AWS, Azure Arc/Azure Kubernetes Fleet Manager sur le cloud de Microsoft, Red Hat OpenShift RHACM, ou encore le projet open source OpenNebula.

 

 

À lire également :

Google Cloud Next 2025 : Les annonces infrastructures et Cyber

À Google Cloud Next 2025, Google peaufine sa vision de l’IA agentique

Google multiplie les IA dans Google Workspace et lance Flows !

Google Cloud Next’25 : Chez Google, l’IA agentique se conjugue au pluriel

Google lance Gemini 2.5 Flash, un modèle qui raisonne à faible coût…

Google Cloud Next’25 : Ironwood TPU, le nouvel accélérateur IA de Google décoiffe grave…