Les technologies qui visent à rendre les infrastructures réseaux plus agiles, telles que le Software-Defined Network (SDN) et la virtualisation des fonctions réseau (NFV), continuent de susciter l’intérêt des opérateurs et fournisseurs de services. Cette tendance s’est d’ailleurs confirmée à l’occasion du dernier Mobile World Congress, où les annonces relatives aux initiatives de virtualisation des réseaux mobiles se sont multipliées tandis que la GSMA confirmait l’ampleur du défi à relever avec un milliard de nouveaux abonnés mobiles uniques attendus dans le monde d’ici 2020.

Les technologies de virtualisation se sont rapidement développées au cours de ces dernières années, offrant aux opérateurs et fournisseurs de services les moyens de gérer l’afflux de nouveaux abonnés et de préserver leurs avantages concurrentiels. Cependant, la convergence des réseaux et les nouveaux services liés à la mobilité ont considérablement augmenté la complexité de la gestion du trafic de données, notamment en raison de la diversité des usages sur ces réseaux mobiles (données, voix, flux vidéo).

Avec une telle diversité au sein d’un même réseau, les outils de suivi, de gestion et de sécurité ont plus de difficultés à gérer correctement l’afflux de trafic, entrainant des difficultés pour établir le diagnostic et résoudre les éventuels problèmes, et impactant à terme la qualité de service pour les abonnés. En effet, l’augmentation des données générées par les services de voix en paquets, combinée à la croissance des données issues de la conversation de la 2G à la 4G LTE, augmente les besoins en bande passante et en infrastructures de 10Gb, 40Gb ou 100Gb. Dans ce cadre, la virtualisation du réseau facilite le déploiement de canaux de transmission plus rapides, notamment grâce à la réduction des goulots d’étranglement, des pannes et des pertes de données.

Parmi les technologies utilisées pour ce faire, la VoIP, la VoLTE, la virtualisation réseau et la connectivité à 100Gb permettent aux opérateurs et fournisseurs de services de bénéficier d’une meilleure qualité de voix, d’un déploiement de services plus rapide et plus dynamique, ainsi que d’une connectivité accélérée. Cependant, le déploiement de ces technologies peut poser des problèmes de compatibilité, de ralentissement des flux, de surcharge de la bande passante, voire de perte de données. En outre, l’association de ces différentes technologies augmente elle aussi la complexité de l’infrastructure et peut réduire à néant les efforts visant à en simplifier la gestion, notamment dans le cadre d’un déploiement simultané.

Dans ce cas, seule une visibilité optimale de l’infrastructure réseau en amont des déploiements permet aux organisations d’éviter les écueils liés à ces technologies. De plus, la connaissance des points critiques du réseau permet aussi d’organiser le trafic de manière optimisée pour que chaque outil ou service sollicité soit utilisé à juste valeur. Par exemple, plutôt que de diriger l’ensemble du trafic sur chaque outil, ce qui est coûteux et nécessite le déploiement d’un nombre très important de sondes à travers toute l’infrastructure, les opérateurs devraient se contenter de transmettre « la bonne donnée au bon outil et au bon moment » via un système de filtre intelligent.

Une visibilité accrue de l’infrastructure réseau permet de sélectionner le trafic de données de manière à ne diriger que les données pertinentes vers les outils adéquates, réduisant ainsi le volume de données transitant par ces outils, les rendant ainsi plus efficaces. Cette méthode a également le mérite de réduire les coûts de gestion de l’infrastructure, tout en augmentant la qualité de service et donc la satisfaction des abonnés.

 

__________
Trevor Dearing est directeur marketing EMEA de Gigamon