Autrefois simples canaux de transmission, les réseaux IP sont devenus des atouts stratégiques cruciaux. Et ils évoluent en conséquences vers des réseaux multiservices qui seront pilotés par l’IA. Une transition qui s’accompagne de défis tels que la complexité et les coûts.

Depuis plusieurs décennies, les réseaux IP connaissent d’importantes évolutions en raison de l’augmentation constante de la quantité des applications, souvent très différentes, qu’ils doivent prendre en charge. En parallèle, ces infrastructures sont également devenues de véritables atouts stratégiques, s’étendant sur de nombreux pays voire continents.

Un véritable changement de paradigme est en cours

Initialement, les réseaux étaient plutôt spécialisés et basés donc sur des équipements conçus pour des objectifs précis. Cependant, ils ont progressivement convergé grâce à l’utilisation de dispositifs et de protocoles multiservices plus sophistiqués, qui visent à réduire le nombre de solutions à gérer. Cela a toutefois entraîné une complexité accrue et des coûts supplémentaires au niveau du système, parfois accompagnés d’une dépendance envers les fournisseurs et de sérieux obstacles pour la mise sur le marché.

Conscients de ces défis, les fournisseurs de services se sont donnés pour mission de déterminer l’emplacement optimal des dispositifs clés au sein de l’architecture réseau, ce qui a entraîné une segmentation Metro/Aggregation, Edge et Core. L’approche qui consiste à « centraliser ce que l’on peut et à distribuer ce que l’on doit » s’est quant à elle universalisé a permis le développement de différentes techniques, telles que le BGP Label Unicast conçue pour assurer la connectivité entre les régions en annonçant les adresses des terminaux en périphérie et les liens aux Regional Border Routers.

Au-delà de la priorité unique de connectivité

Bien que garantir une connectivité de haute qualité et évolutive demeure une priorité absolue, la définition d’une utilisation efficiente des ressources sur l’ensemble des actifs déployés n’est pas toujours évidente. Chaque fournisseur a en effet été confronté aux défis de limites géographiques, des marchés cibles, des biens immobiliers et des actifs en fibre optique, de structure de coûts ou d’approches spécifiques. Par conséquent, ils ont souvent adopté des solutions différentes, cherchant la stratégie optimale en accord avec leurs modèles, leurs exigences organisationnelles et les Accords de Niveau de Service (SLAs).

De nos jours, la définition de l’approche optimale a évolué en raison de divers facteurs qui influencent la répartition de la chaîne de valeur entre les fournisseurs de services de connectivité (CSP), ceux de contenu et cloud, ainsi que d’autres acteurs technologiques. De plus, l’impact des nouveaux investissements sur le revenu moyen par utilisateur (ARPU) et leur rapidité de déploiement sont devenus des considérations essentielles. Parallèlement, les objectifs liés à la responsabilité sociale des entreprises et au développement durable ont émergé, mettant l’accent sur la nécessité d’améliorer l’efficacité énergétique et de réduire les émissions de CO2 – des facteurs désormais essentiels pour tout investissement majeur dans les réseaux. L’ère de l’allocation statique des ressources et de la sur-provision est révolue, alors qu’elle s’est avérée inefficace en termes de délai de mise sur le marché, d’efficacité des actifs et d’impact environnemental.

Se poser les bonnes questions pour faire évoluer son infrastructure

Malgré l’adoption croissante de l’automatisation et de l’AIOps, de nombreuses entreprises continuent de rencontrer des difficultés pour identifier leurs cas d’utilisation, en raison des coûts associés et de la multitude de solutions existantes. Et si, au-delà de l’amélioration de l’efficacité opérationnelle, l’IA et l’automatisation pouvaient optimiser l’ensemble des ressources réseau et de sécurité ?

Et si, dans l’ingénierie du trafic réseau, les entreprises se focalisaient non plus seulement sur la haute disponibilité, la qualité de service (QoS) et les accords de niveau de service (SLA), mais aussi sur la consommation des ressources et les critères de durabilité, ouvrant ainsi la voie à des compromis innovants ? Et si tous les éléments nécessaires étaient déjà à notre portée, mais que leur véritable potentiel et les raisons essentielles de les intégrer n’avaient pas encore été réalisés ?

Naviguer dans ce paysage peut sembler complexe, car les moyens et les objectifs se chevauchent souvent, entraînant confusion et incertitude. Dans le contexte actuel, plusieurs questions émergent : comment faire plus avec moins ? Comment investir, déployer et utiliser les ressources de manière optimale et opportune pour obtenir les résultats souhaités ?

La remise en cause de l’efficacité des systèmes monolithiques ?

Les systèmes monolithiques conçus à cet effet ont leur mérite, car ils offrent l’avantage d’être des solutions tout-en-un. En supposant qu’il existe une concurrence suffisante sur le marché, on peut considérer que ces systèmes représentent des implémentations hautement optimisées, offrant une utilisation efficace et pratique (en prenant en compte des facteurs tels que les coûts, l’utilisation réelle par rapport à la potentielle, et la consommation d’énergie). Cependant, ils présentent certains inconvénients, comme des coûts initiaux élevés et d’exploitation continus (même si des innovations émergent pour gérer les états actifs et inactifs de leurs composants), et une possible dépendance vis-à-vis des. Il reste important de souligner que tout est une question de compromis, en fonction des différentes dépendances et de ce qui est le plus important.

Dans certains domaines, les systèmes monolithiques conservent leur efficacité. Par exemple, lorsqu’il s’agit de faire plus avec moins, le choix optimal pour le réseau central ne devrait pas faire l’objet de débats. Le déploiement d’un demi-rack capable de fournir des centaines de téraoctets de trafic par seconde est préférable à une alternative de systèmes désagrégés interconnectés s’étendant sur plusieurs racks. De plus, les conséquences environnementales et les risques opérationnels sont également associés à cette dernière approche.

Simultanément, dans des domaines tels que le Business Edge, le BNG (Broadband Network Gateway), la sécurité et potentiellement d’autres, la spécialisation et la mise à l’échelle, font qu’il est raisonnable de s’attendre à l’existence d’options monolithiques. Cependant, il est également possible de consommer collectivement des ressources plus granulaires en utilisant un cadre dynamique. Celles-ci pourraient en effet être intégrées à une structure interconnectée capable de s’étendre et de s’adapter à différents niveaux en fonction de la topologie et des services souhaités.

Une cohabitation entre ces systèmes monolithiques et les plus petits et autonomes peut être envisageable, si l’on prend en compte des options virtualisées hébergées dans des clouds privés ou publics. Il est cependant important de faire la distinction entre la désagrégation de la pile de ressources (matériel et logiciel) et la désagrégation ou la distribution du système lui-même. Celle-ci peut être une approche viable si elle est soutenue par une justification commerciale convaincante et une véritable demande du marché, tant que l’objectif principal d’orchestrer et d’utiliser efficacement ces ressources, en les regroupant pour atteindre une efficacité accrue à tous les niveaux, n’est pas compromis.

Il est également légitime de se demander si les entreprises ne devraient pas explorer une approche légèrement différente pour les réseaux, en adoptant des systèmes distribués pilotés par l’IA. Cela pourrait en effet ouvrir de nouvelles perspectives pour améliorer la flexibilité, la réactivité et l’efficacité globale, en tirant parti des capacités de l’IA pour optimiser les performances, la sécurité et la gestion des ressources. Bien qu’il reste à voir si cette approche deviendra réalité, il est important d’envisager de nouvelles perspectives et de remettre en question le statu quo. Le rôle de l’IA dans ce contexte doit encore être pleinement compris et exploré.
____________________________

Par Michael Melloul, Directeur Technique France, Juniper Networks

 

À lire également :

Zero Trust : vous n’aimez pas le concept ? Reconnaissez au moins son efficacité…

Pourquoi l’automatisation des réseaux est au cœur de la croissance des entreprises ?

Santé : et si les technologies réseaux pouvaient réinventer l’expérience des patients et du personnel soignant ?

Le Zero Trust, un modèle de sécurité adapté à l’ère du travail hybride.