La légende veut qu’Alexandre le Grand soit devenu roi après avoir tranché le nœud gordien d’un coup d’épée au lieu de tenter de le démêler, comme d’autres avaient essayé de le faire avant lui.

Les logiciels de Gestion de l’Infrastructure du Data Center (DCIM – Data Center Infrastructure Management) ont été conçus et ont évolué pour régner sur la complexité de plus en plus lourde du Data Center de l’entreprise. Face à cette complexité, le dilemme est aujourd’hui le même que pour Alexandre.

Au cours de la dernière décennie, les fournisseurs de services cloud les plus importants (comme Amazon, Google, Facebook, etc.) ont investi dans l’automatisation et réduit la complexité au niveau du rack au lieu de tenter de la gérer ou de la contrôler dans son ensemble. Ils ont atteint un niveau d’efficacité et d’évolutivité bien plus élevé que celui des data centers traditionnels. La pression concurrentielle poussera d’évidence les data centers d’entreprise à suivre leurs traces.

C’est une véritable rupture par rapport aux fonctionnements traditionnels. Dans cet article, je souhaite attirer l’attention sur la nécessité de réexaminer dès lors tous les systèmes utilisés dans le data center, y compris le logiciel DCIM. DCIM doit porter un nouveau projet. Il faut sortir d’une pratique de gestion au niveau du périphérique en organisant les tâches humaines pour se fixer l’objectif d’une gestion de l’évolution (au niveau du rack, de la rangée et de la totalité du data center) avec une automatisation la plus complète possible.

Que diable fait DCIM ?

Alors que DCIM a une signification différente selon les fonctions, aujourd’hui la plupart des produits disponibles sur le marché gèrent les actifs et les flux informatiques et proposent une modélisation visuelle et analytique de l’infrastructure physique du data center.

Un logiciel DCIM vous donne des informations concernant l’alimentation, les racks et les connexions réseau disponibles pour installer votre nouveau serveur. Il peut fournir une visualisation en couleur des planchers avec des superpositions des données des flux d’air qui éblouiront votre patron et lui montreront que tout est sous contrôle. Vous voulez savoir combien il y a de serveurs dans le data center ? DCIM génère une liste et la corrèle avec les services pris en charge. Vous avez un important projet de déploiement en vue ? DCIM peut vous aider à organiser l’ensemble des tâches, des choix techniques aux achats, en passant par l’allocation des ressources, jusqu’au démantèlement des équipements informatiques.

En somme, DCIM vous donne la possibilité de gérer la capacité, les actifs, la visualisation, l’analyse et les flux de travail. DCIM peut surveiller les variables physiques (comme la température, le débit d’air, la consommation d’énergie) pour améliorer la gestion énergétique (le PUE, power usage effectiveness). Il permet l’utilisation optimisée des ressources physiques et facilite l’intégration du data center dans les autres solutions de gestion de l’entreprise.

La complexité du Data Center, un véritable nœud gordien

Les logiciels de modélisation physique des Data Centers ont été développés au début des années 2000. A cette époque, la plupart des data centers d’entreprise étaient conçus et construits en fonction des spécifications de capacité globale (surface de plancher, nombre de racks, capacité maximale par rack, etc.). Une fois l’infrastructure physique en place, les années suivantes, les groupes informatiques ont progressivement utilisé la capacité en déployant l’équipement ad hoc, pour répondre aux exigences des services de l’entreprise.

Des équipements sont régulièrement ajoutés et enlevés. Il en résulte un méli-mélo d’unités en rack, montant rapidement en puissance et en complexité. Combiné au turnover normal du personnel, impossible dans ces conditions de savoir avec précision quel équipement existe, pourquoi et où il est installé, à qui il appartient ou même ce qu’il fait !

La promesse de DCIM était de donner un sens à ces groupements d’infrastructures complexes et d’harmoniser les silos d’installations avec les opérations informatiques, permettant ainsi aux managers des data centers d’en reprendre le contrôle et d’en optimiser le fonctionnement. Et DCIM l’a fait en surveillant toutes les mesures de capacité, en suivant les actifs, leurs emplacements, leurs connexions avec d’autres systèmes et les business services qu’ils supportaient. Et pour harmoniser le modèle avec la réalité, on a installé la gestion des tâches, obligeant la modélisation des changements dans le logiciel avant leur mise en œuvre.

Bien que la gestion de la complexité soit un véritable problème, DCIM a lutté pour l’emporter et devenir la solution dominante. La mise en œuvre de DCIM, c’est « tout ou rien », avec l’exigence de l’engagement total envers un fournisseur unique de logiciels. Un déploiement efficace de DCIM suppose de la discipline, un sens aigu des échéances et des process ainsi qu’une forte acceptation de toute l’entreprise ; un ensemble de facteurs difficiles à trouver dans les environnements réels.

Trancher le noeud grâce à la convergence

Pendant toute cette période, les data centers ont évolué vers une réduction plutôt qu’une gestion de la complexité – l’infrastructure convergente a engendré le data center modulaire, conçu et géré au niveau du rack et du multi-rack. La conséquence est que les infrastructures les plus récentes sont d’une très grande homogénéité par rapport aux data centers traditionnels.

C’est dès la conception que l’on détermine les éléments des équipements IT qui iront dans chaque rack ; et par là-même la puissance électrique et la capacité de refroidissement qui vont avec. L’infrastructure étant construite comme elle a été conçue, il devient inutile de planifier la capacité, la surveillance ou la gestion au niveau du périphérique.

Au départ, seuls les data centers géants (que l’on appelle hyperscale) étaient assez importants pour aborder la construction du data center de cette façon. Avec l’Infrastructure-as-a-service, les entreprises peuvent externaliser leurs moyens et profiter de l’hyperscale. Une part significative des charges de travail IT a migré et continuera de migrer vers des fournisseurs de cloud, ce qui réduit la portée des solutions DCIM.

Mais les méthodologies et les technologies sont appelées à se développer et les entreprises auront besoin de conserver ou de rapatrier une partie de la charge de travail. Elles changeront leur façon de construire et gérer les infrastructures. DCIM doit donc évoluer ou sa pertinence diminuera d’autant.

Opportunités et défis en vue pour DCIM

Si l’on considère que la tendance pour les éléments IT du data center est qu’ils soient conçus avant l’allocation des ressources plutôt que déployés ad hoc, les capacités de modélisation actuelles du logiciel DCIM seront plus utiles dans la conception d’un data center que dans son fonctionnement. DCIM va-t-il devenir un logiciel de conception de data center ?

Il est prévu une migration de la complexité depuis les data centers jusqu’à la limite de l’infrastructure et une croissance rapide du nombre d’appareils connectés dans les prochaines années, entraînés par l’Internet des Objets (IoT), l’augmentation de la consommation de contenus vidéos, la réalité virtuelle et la réalité augmentée, etc.

Bien que la proposition de valeur de DCIM soit susceptible de devenir moins pertinente dans les data centers plus homogènes et évolutifs, gérer des périphériques en limite de l’infrastructure crée une opportunité de croissance. En bordure, le DCIM doit être plus sélectif quant aux périphériques et variables qu’il surveillera. Il doit s’améliorer pour fournir des couches d’abstraction aux gestionnaires d’infrastructure ainsi que pour l’agrégation et la signification des données utilisables, collectées à partir des éléments de l’infrastructure.

Le processus de modélisation, de suivi et de comparaison du modèle à la réalité pour détecter les divergences doit de moins en moins dépendre de l’inventaire manuel, de l’exécution de processus et de la gestion des changements. Il doit devenir un processus automatisé et continu, piloté par un logiciel suffisamment intelligent pour ne demander d’interventions humaines que lorsque celles-ci sont nécessaires.

Les logiciels pour les infrastructures IT doivent devenir moins monolithiques et moins propriétaires. L’utilisation des API RESTful pour l’intégration est une condition essentielle pour l’avenir.

Toutes ces évolutions sont faciles à prédire, mais plutôt difficiles à exécuter. Historiquement, le fil conducteur du développement de DCIM était de fournir le suivi, le contrôle et la gestion de la totalité des périphériques. Changer d’objectif est un énorme défi non seulement de la part des fournisseurs de DCIM, mais aussi pour tous ceux qui développent des systèmes de gestion d’infrastructure pour les data centers.

Le temps nous dira si le DCIM sera le roi des logiciels d’infrastructure ou se contentera de mourir doucement, enchevêtré dans son propre nœud gordien.

 

____________
Michel Daviller est Sales Engineer EMEA chez Opengear