Les architectures de plus en plus complexes des data centers remettent aujourd’hui en question l’efficacité et la valeur des outils traditionnels de monitoring du réseau.

Connaissez-vous la loi de Metcalfe ? Énoncée par Robert Metcalfe, fondateur de la société 3Com et à l’origine du protocole Ethernet, cette loi théorique stipule que « l’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs. » En d’autres termes, plus il y a d’utilisateurs dans un réseau, plus ce réseau aura de la valeur. Mais plus il sera également complexe.

Les sondes traditionnelles face à la nouvelle complexité des architectures réseau

Le nombre de connexions, pas seulement entre les serveurs, mais entre tous les processus exécutés sur ces derniers, augmente aujourd’hui de façon exponentielle dans les data centers. Cette complexité croissante a entraîné une transformation des architectures réseau, qui sont passées d’une structure hiérarchique verticale à une topologie micro-segmentée, dite de « spine/leaf », capable de mieux supporter un trafic horizontal, de serveur à serveur. Un modèle qui ressemble à s’y méprendre aux diagrammes de Metcalfe ! Dans le même temps, la virtualisation galopante des infrastructures réduit de façon significative le contact entre les machines virtuelles (VM) et le réseau physique.

Si bien que lentement mais sûrement, les traditionnels points de capture de trafic sur lesquels se positionnent les sondes qui monitorent le trafic réseau ont progressivement perdu de leur valeur. Entraînant alors une profonde remise en question de la pertinence même des sondes réseaux.

Comment les sondes réseau peuvent-elles adresser le trafic, les connexions et les services de plus en plus dynamiques des data centers ? Et surtout, dans quel but ? Mesurent-elles réellement la performance des applications ? Autant de questions qui amènent à la conclusion raisonnable que les sondes réseau, dans leur forme traditionnelle, ne conviennent plus vraiment aux architectures dynamiques actuelles des data centers.

Mais si chaque hôte, chaque VM, chaque conteneur reposait sur son propre segment, avec un accès virtuel direct à ses dépendances, chaque nœud devrait-il avoir sa propre sonde virtuelle ? Et si non, comment mesurer la qualité des communications de nœud à nœud dans un environnement virtualisé ? Et si l’on remplaçait le terme « sonde virtuelle » par « agent logiciel » ? Ces agents logiciels donnent accès non seulement aux statistiques de l’interface réseau du serveur, mais aussi aux communications au niveau des processus, ainsi qu’aux données de performance du serveur et de l’application. Reste alors à analyser ces données et leurs valeurs.

Monitorer le réseau dans des environnements dynamiques

Si l’intérêt des sondes réseau traditionnelles est aujourd’hui remis en question, la nécessité de monitorer et d’analyser le réseau ne fait en revanche pas débat ! Certains estiment que cela pourrait même devenir de plus en plus important à mesure que se développeront les architectures de microservices, de conteneurs, ou encore le provisioning dynamique, qui s’inscrivent dans des maillages complexes proches du modèle de Metcalfe. Dans les data centers, les données seront ainsi capturées et traitées par des agents logiciels plutôt que par des sondes réseau.

Mais ce qui a précipité la chute des sondes réseau traditionnelles, c’est peut-être le rôle – trop ambitieux -d’APM (Application Performance Management) que l’on a cherché à leur attribuer, alors qu’elles auraient dû s’en tenir à ce qu’elles font de mieux : le NPM (Network Performance Management). Car si la gestion de la performance digitale et le suivi des transactions en profondeur est désormais l’apanage des agents logiciels et des APIs, il existe encore une opportunité naturelle d’utiliser les sondes pour fournir des données fondamentales sur les réseaux. En particulier sur le WAN (Wide Area Network), c’est-à-dire en marge du data center, là où elles peuvent continuer à délivrer leur véritable valeur.

Les sondes réseau pour monitorer en marge du data center

Pourquoi est-ce en marge du data center que les sondes réseau sont les plus adaptées ?

D’abord, parce que c’est au niveau du WAN que les caractéristiques du réseau et les flux TCP sont les plus susceptibles d’avoir un impact sur la performance et la disponibilité des applications. Ensuite, parce que cette performance est également influencée par les nombreux appareils et équipements intégrés aux réseaux WAN, via des indicateurs de gestion de la performance réseau qui vont bien au-delà du triptyque bandes passantes, latences et routages. Équipés de contrôleurs d’optimisation WAN (WOCs), de contrôleurs de livraison d’application (ADC), de load balancers ou encore de pare-feu, ces équipements ne contrôlent pas seulement les flux de trafic, ils exécutent également des fonctions de type serveur, en livrant du contenu applicatif, directement et indépendamment, aux utilisateurs. Pour autant, ils sont toujours considérés comme faisant partie du réseau.

D’autre part, il faut souligner que le nombre de points d’accès entre le data center et le WAN, et donc le nombre de points de placement de sondes, est relativement faible, ce qui permet d’éviter l’effet Metcalfe.

Enfin, l’expérience de l’utilisateur final est évidemment l’indicateur le plus important pour mesurer la qualité du service fourni. Et c’est bien la sonde, placée aux extrémités du data center, qui fournit ici le plus de valeur, dans la mesure où elle permet de voir toutes les interactions des utilisateurs avec les applications du data center. Tout l’enjeu réside donc dans l’intégration, dans les sondes réseau, de l’intelligence nécessaire pour comprendre les transactions applicatives et automatiquement analyser les dégradations de performance. Ce qui en fait alors un outil d’analyse inestimable pour les équipes BizDevOps en charge de la livraison et de la performance des applications. L’expérience utilisateur doit rester l’indicateur clé pour l’ensemble des parties prenantes.

Il y a quelques années, certains experts avaient annoncé la mort des sondes réseaux. Son incompatibilité avec les architectures cloud, type PaaS et IaaS, semblait en effet prédire son inéluctable disparition. Mais c’était sans compter sur leur résistance et leur capacité à faire valoir leur efficacité en marge des data centers.

_____________
Antoine Ferté est Sales Engineer Director chez Dynatrace