Les centres de données évoluent depuis peu d’une infrastructure traditionnelle et distribuée vers une structure consolidée et orientée service. Dès lors, les infrastructures réseau, les applications et les services deviennent de plus en plus complexes, tandis que les utilisateurs sont de plus en plus mobiles et exigeants, espérant des performances réseau qui leur permettront d’améliorer leur productivité dans toute tâche, quelle que soit leur localisation. Dans le même temps, le climat économique tendu conduit les entreprises à réduire les coûts d’investissement et d’exploitation sans pour autant sacrifier la qualité. Les ingénieurs sont priés d’obtenir le meilleur de chaque commutateur, routeur, serveur et hyperviseur…

Dans un tel contexte, la consolidation du centre de données permet aux entreprises de mettre en œuvre des protocoles et stratégies de gestion plus avancés pour maximiser l’utilisation de la bande passante et les performances des applications tout comme des réseaux. Elle rend également possible la mise en œuvre de la virtualisation des applications (en séparant les applications des serveurs physiques), entraînant ainsi des avantages supplémentaires tels que l’amélioration de la sécurité grâce à la réduction du nombre de sites et d’équipements à gérer, l’amélioration de la conformité grâce à la promotion de l’automatisation, la réduction des besoins en matériels et logiciels, de la consommation d’énergie, des besoins en installations et transport, etc.

Toutefois, pour bénéficier pleinement des avantages de la consolidation et éviter une interruption coûteuse, les entreprises doivent dans un premier temps suivre un processus précis, consistant tour à tour à connaître en profondeur leur réseau, applications et services existants, évaluer les performances, définir des mesures pour les performances souhaitées, planifier la transition, mettre en œuvre la transition vers le nouvel environnement d’exploitation avec un minimum d’interruptions, et enfin surveiller et gérer l’architecture mise à jour afin de s’assurer qu’elle atteigne les mesures requises.

Dans un deuxième temps, afin de garantir leur ROI, les entreprises doivent gérer l’architecture consolidée en étroite relation avec les indicateurs de performances. Or les anciens outils de gestion des performances ont été conçus pour un environnement distribué et ne peuvent pas gérer les complexités d’une architecture consolidée et virtualisée. La plupart adoptent une approche de haut niveau et survolent la collecte et l’évaluation des données. Ils génèrent des tableaux de bord qui peuvent être partagés avec la direction générale pour suivre les performances globales, mais ne donnent pas suffisamment de visibilité sur des domaines spécifiques ou n’aident pas à résoudre les problèmes.

D’autres adoptent une part beaucoup plus étroite et profonde, en mettant l’accent sur un segment spécifique du réseau et en capturant des paquets, examinant les transactions individuelles et offrant des analyses détaillées en temps réel. Idéalement, les équipes informatiques ont besoin d’une combinaison des deux approches. Les données de débit, de transaction et SNMP leur permettent d’examiner l’expérience globale, tandis que l’analyse des paquets et les capacités S2D facilitent le dépannage et la conformité. Elles ont besoin à la fois de l’ampleur et de la profondeur de l’analyse, mais sans l’effort manuel et les délais associés aux produits. De plus, les anciens outils de gestion des performances sont limités à la fois par les informations qu’ils fournissent et la façon dont ils les présentent.

Les points de vue réseau et application permettent d’identifier la cause principale d’un problème et de le résoudre, mais ne sont pas toujours suffisants, en particulier dans un centre de données consolidé où les propriétaires d’unités commerciales exigent des mesures de niveau de service. Enfin, dans l’environnement plus complexe d’un centre de données consolidé il est devenu plus difficile d’identifier et résoudre rapidement les problèmes, en particulier si les performances se dégradent lentement dans le temps ou si les problèmes de performance sont intermittents.

Les entreprises ont donc besoin d’une solution globale offrant l’évolutivité, la largeur et la profondeur nécessaires pour acquérir, intégrer, présenter et conserver toutes les données qui reflètent réellement les performances des réseaux, des applications et des services du point de vue de l’unité commerciale, du service informatique et surtout de l’utilisateur final, ce avec une précision atteignant jusqu’à une milliseconde, qu’elles concernent le flux, les données SNMP ou encore les informations recueillies à partir d’autres périphériques. Ces données doivent être affichées sur un seul tableau de bord configurable par l’utilisateur.

Ainsi, en mettant en œuvre une solution de gestion des performances appropriée avant la consolidation du centre de données, l’équipe informatique peut s’assurer que les performances sont au moins maintenues et idéalement améliorées à la suite du projet de consolidation. Reste, bien sûr, la couche supplémentaire d’abstraction inhérente à la virtualisation des applications qui peut rendre la gestion des performances plus difficile…

La migration vers une infrastructure réseau virtuelle oblige en effet les ingénieurs réseau à adopter de nouvelles méthodes de configuration et de surveillance, puisqu’il y a moins de commutateurs physiques et de routeurs à prendre en charge. Il existe également un débat sur la question de savoir si la virtualisation augment ou diminue la sécurité du système. Si un système est compromis au sein de l’environnement virtuel, cela donnera-t-il accès à tous les autres ? En outre, l’augmentation de trafic physique sur une seule plate-forme matérielle aura une plus grande incidence sur l’infrastructure de câblage. Cette infrastructure doit être testée et certifiée avant de déployer une virtualisation des services.

Pour faire face à ces défis, les éditeurs ont développé des solutions qui permettent d’effectuer des mesures depuis l’utilisateur final jusqu’au centre de données, permettant aux utilisateurs de comprendre ce qui se passe sur le réseau du point de vue de l’utilisateur final et donc d’identifier et de résoudre les problèmes plus rapidement. Ces solutions fournissent une visibilité des performances de ce premier niveau, puisqu’elles sont regroupées par site avec des comparaisons utilisateur. Elles fournissent également des visualisations des interactions de l’utilisateur au sein de sa session, ainsi que des mesures de performances pour les applications publiées. Elles sont ensuite mises en corrélation avec les transactions générées par l’environnement virtualisé selon les architectures standard d’application à un niveau donné. Elles permettent enfin de gagner du temps lors de la résolution de problèmes et aident les ingénieurs à devenir proactifs dans la gestion des performances au sein de ce scénario de déploiement d’application.

 

______
Par Stefan Pracht, Fluke Networks