La pandémie de COVID-19 nous a montré que les entreprises qui avaient le mieux réussi à traverser cette période économiquement tendue étaient les plus avancées technologiquement. De fait, la crise sanitaire a entraîné une forte accélération des plans de transformation numérique.
Selon une étude Equinix, près de la moitié des décideurs informatiques le reconnaissent (47 %) et une grande majorité (58 %) déclare vouloir continuer d’investir dans les technologies afin de gagner davantage en agilité dans l’ère post-COVID.

L’aune d’une nouvelle approche

Un climat d’incertitude ambiant a toutefois impacté le monde des réseaux. Frappé par une pénurie de matières premières, dont le silicium, il a aussi souffert d’une pénurie de personnel qualifié qui a davantage contraint la maintenance des infrastructures sur site. Face à ces situations, les entreprises ont pris conscience qu’elles devaient gagner en agilité et s’appuyer sur une l’infrastructure et des systèmes appropriés pour être en mesure de continuer à fonctionner face à de tels aléas.

Pour acquérir cette agilité, beaucoup ont opté pour les services cloud de fournisseurs tels qu’Amazon AWS, Microsoft Azure ou autres, s’épargnant ainsi la construction d’un data center physique en propre. En les associant à des capacités de virtualisation, certaines ont ainsi choisi d’augmenter leur nombre de machines ou leur puissance de calcul sans contrainte d’achat ou de déploiement supplémentaire de matériel physique.

La crise sanitaire a favorisé la prise de conscience que l’accès à distance et l’automatisation n’étaient pas seulement une fantaisie, mais bel et bien essentiels au développement et à la pérennité des entreprises. Faire le choix d’accéder à distance à ses infrastructures critiques c’est faciliter l’opérabilité des ingénieurs réseau en temps réel ! Une approche flexible qui renforce la capacité de réaction et la rapidité en cas d’incident des équipes, notamment dans les environnements où l’accès est impossible.

L’automatisation gagne d’ailleurs du terrain et s’applique aux plates-formes virtuelles, composées de piles logicielles complètes qu’il peut être chronophage de construire ou de reconstruire manuellement. Choisir de les automatiser c’est une nouvelle fois faciliter notamment le temps de maintenance qui, réalisée manuellement, peut parfois s’avérer un véritable défi.

Dans une optique d’agilité, évoluer vers l’automatisation et la coupler à la virtualisation permet l’approvisionnement à distance de nouveaux équipements et services. L’automatisation des réseaux rend les processus reproductibles et fiables, contribuant ainsi à réduire l’erreur humaine. Plébiscitée dans les premiers grands déploiements de data centers, nous assistons désormais à l’adoption de l’ »infrastructure as code » pour soutenir l’automatisation des réseaux et de l’edge computing.

Même si les entreprises déplacent de plus en plus leur IT vers la périphérie, beaucoup cherchent à en virtualiser les différents postes pour gagner en performance et souplesse. Certaines sont passées d’un pare-feu physique à un pare-feu virtualisé et d’autres d’un boîtier physique SDN à un boîtier SDN virtualisé, fonctionnant sur un conteneur dans une white box.

Automatiser et virtualiser jusqu’au Edge

La virtualisation de périphérie implique de faire tout ce que vous pouvez faire dans un environnement virtualisé à grande échelle, à une échelle plus petite et dans des espaces plus éloignés. En cas de problème, il est nécessaire de pouvoir accéder au réseau à distance et d’automatiser la configuration, la surveillance et les actions correctives.

Si la virtualisation est généralement plus rapide, elle peut aussi être plus complexe. Dans le contexte actuel, il est important qu’au lieu de devoir envoyer un ingénieur hautement qualifié pour se connecter au réseau, les entreprises puissent davantage créer des scripts d’automatisation pouvant être testés avant le déploiement pour s’assurer qu’ils fonctionnent bien et qu’ils sont suffisamment robustes et reproductibles, afin d’éviter toute erreur.

L’enjeu induit par l’automatisation et la virtualisation est de travailler à un rythme soutenu, de manière reproductible, évolutive et robuste. Cela sans que l’entreprise ait notamment à se soucier de dépêcher un ingénieur sur site pour l’approvisionner. En ce sens, ces technologies illustrent leurs capacités, couplées à une solution de gestion hors bande qui, via une console unique, leur offre la possibilité d’effectuer davantage de travaux d’automatisation, mais aussi de les réaliser à distance, potentiellement même sans connectivité.

Avec la crise, de plus en plus d’entreprises – et ce dans de nombreux secteurs industriels – ont compris qu’un accès à distance sécurisé et une automatisation indépendante de leur réseau de production ne sont pas seulement un avantage pour leur activité, mais constituent avant tout un véritable ‘must have’ à leur performance. Il n’y a qu’en prenant aujourd’hui les bonnes orientations technologiques que les organisations assureront leur pérennité dans les années à venir.
___________________

Par Romain PIA, Regional Sales Manager EMEA South chez Opengear