A l’heure actuelle, un des grands défis de la DSI est d’optimiser la distribution des applications afin de réduire ses coûts de fonctionnement et d’améliorer sa qualité de service. Parallèlement, elle se doit de fournir des services toujours plus agiles, automatisés et résilients. Elle n’a plus le luxe d’attendre plusieurs jours, semaines ou mois pour bénéficier de services réseau en parfait état de marche : contrôle de la distribution des applications, équilibrage de charge, pare-feu applicatifs Web, prévention des intrusions ou chiffrement SSL. Les nouveaux services applicatifs doivent être activés en temps quasi réel.

Le réseau software-defined (SDN) et la virtualisation des fonctions réseau (NFV) ont émergé comme des moyens qui, combinés, permettent d’offrir ce haut niveau de services d’infrastructure et réseau exigé par les DSI, tout en apportant de la visibilité, de la sécurité et un contrôle de l’environnement qu’ils gèrent.

SDN et NFV : définitions et fonctionnalités

Les fonctions de base diffèrent :

– la technologie SDN se caractérise par le fait qu’elle sépare le contrôle du réseau et les opérations de transfert, et centralise le contrôle pour fournir des instructions à l’infrastructure de commutation. Cette technologie dissocie le réseau de la couche matérielle sous-jacente et lui permet de mieux prendre en charge les data centers virtualisés.

– la technologie NFV fait exactement ce qu’elle désigne et virtualise les fonctions réseau telles que les ADC (contrôleurs de distribution d’applications) et les pare-feu applicatifs Web. La virtualisation des fonctions réseau ne nécessite pas de matériel propriétaire physique et permet au réseau d’exploiter pleinement la technologie de data center virtualisé.

La technologie NFV rend les fonctions virtualisées des ADC et des pare-feu applicatifs Web plus accessibles pour le reste de l’infrastructure virtuelle et fournit le framework permettant le chaînage de plusieurs services réseau. En plaçant ces appliances virtuelles dans un environnement d’hyperviseur, vous créez une infrastructure programmable centralisée qui réduit les coûts, car elle n’a pas à gérer et à prendre en charge d’innombrables appliances physiques. Cette technologie améliore également la fiabilité car les erreurs de configuration et des opérateurs sont moins problématiques.

Les services virtualisés au niveau des couches 4 à 7 du modèle OSI (Open Systems Interconnection), qui étaient généralement exécutés sur des appliances conçues à cet effet, sont parfaits pour la nouvelle génération de réseaux agiles. En outre, avec une bibliothèque d’API complète, ces services complètent d’autres outils tiers tels que les produits d’orchestration et de gestion en mode Cloud.

Afin de renforcer l’agilité des services au sein du data center, chaque fonction principale généralement assurée par un seul ADC monolithique, par exemple, peut être fournie sous la forme d’un élément virtuel provisionné automatiquement, appelé VNF (fonction réseau virtuelle), en termes de NFV.

Fournir des appliances dans un format virtuel est une chose, mais si vous ne disposez pas des outils adéquats pour provisionner, surveiller, dimensionner et gérer ces services virtuels, et que ces services virtuels ne constituent pas un ensemble d’éléments parfaitement intégrés dans une architecture de systèmes plus vaste, l’opération revient à remplacer le matériel par des logiciels et ne permet pas d’exploiter vraiment le potentiel des nouvelles technologies telles que les technologies SDN et NFV.

Vers un modèle SDDC d’architecture de data center plus dynamique

Il n’y a pas une nécessité conceptuelle de mettre en œuvre ces technologies ensemble mais leurs fonctionnalités respectives se complètent et leur combinaison permet d’évoluer vers un modèle SDDC (Software-Defined Data Center). Par exemple, la mise en œuvre des concepts SDN sans virtualiser les fonctions réseau revient à relier le réseau aux éléments matériels, ce qui est contradictoire avec les caractéristiques de la technologie SDN consistant à virtualiser l’intelligence réseau.

Si vous envisagez d’évoluer vers une architecture de data center plus dynamique, qui est plus étroitement alignée sur les charges de travail hébergées que vous utilisez et qui répond vraiment aux besoins de ces charges de travail sur l’environnement des services réseau, voici les étapes à suivre :

– Commencez par définir les fonctionnalités spécifiques que chacune de ces solutions de services réseau doit vous apporter.
– Ensuite, examinez le niveau d’intégration de ces fonctions avec les plates-formes conçues pour gérer, contrôler, orchestrer, dimensionner et déplacer ces fonctions manuellement ou automatiquement.
– Il est important que le fournisseur des services réseau virtuels offre cette capacité de contrôle spécifique à leurs fonctions.
– Il est tout aussi important que le fournisseur assure l’intégration avec les plates-formes de tiers qui exécutent également ces fonctions dans des environnements de calcul et Cloud mixtes/ouverts tels que VMware, Openstack et Microsoft.

– Enfin, la solution choisie doit être en mesure d’exécuter les fonctions de contrôle et la fonction du plan de données dans les environnements de Cloud public avec le même niveau d’interfonctionnement et d’intégration dans votre data center privé.

Cette méthode est redoutablement efficace pour développer de nouvelles technologies de virtualisation de réseau. Certes, les solutions avant-gardistes apportent des avantages technologiques et opérationnels, mais la transition peut être laborieuse. En réduisant les risques liés à la mise en production, en améliorant l’efficacité et en éliminant les obstacles, les technologies SDN et NFV permettent de disposer d’un data center efficace, rentable et fiable, tout en améliorant sa flexibilité et ses performances.

________
Yann Bouillon est Responsable technique de KEMP Technologies en France et Afrique du Nord