Le Edge Computing permet de placer des ressources IT pour l’IA et l’analyse avancée au plus proche des données mais impose une connectivité qui nécessite d’adapter les architectures.

L’utilisation moderne d’applications en ligne exige désormais, et de plus en plus, une disponibilité à toute épreuve, une rapidité d’exécution en temps réel, et un accès facile, depuis n’importe quel support et dans n’importe quel lieu. Que ce soit dans une clinique mobile située en plein cœur de la montagne, et où il est nécessaire de capturer et partager des données de santé vitales, ou sur une plateforme pétrolière ou gazière qui doit analyser des données critiques provenant de capteurs situés en pleine mer, toute latence ou lenteur au niveau de la connexion internet pourrait entraîner des conséquences catastrophiques.

L’un des principaux défis à relever pour répondre à ces exigences est donc le réseau. En effet, de vastes étendues du globe sont encore peu dotées d’accès fiable à internet, ce qui signifie que les applications qui dépendent de la connectivité ne peuvent pas être exploitées dans ces régions.

Mais certaines innovations dans ce domaine permettent de réduire ces lacunes, même dans les zones dites blanches (il existait encore plus de 2 000 zones à couvrir en France en 2022 selon l’Arcep), ces territoires non couverts par un réseau mobile.

Déplacer les données à la périphérie du cloud

Une architecture de cloud computing suppose que le stockage et le traitement des données sont hébergés dans le cloud. Dans cette représentation, les services d’application et la base de données sont hébergés et exécutés dans le cloud, auquel on accède à partir de périphériques via des appels REST. L’architecture cloud repose sur l’accès à internet pour que les applications fonctionnent correctement. En cas de ralentissement ou d’interruption du réseau, celles-ci ralentiront ou s’arrêteront.

Les architectures IT en périphérie favorisent le traitement des données à la marge, à proximité des applications. Ces dernières sont donc plus rapides, car les données n’ont pas à faire le trajet jusqu’au cloud. Elles sont également plus fiables, le traitement local des données leur permettant de fonctionner même sans Internet. Ainsi, une architecture périphérique permet de capturer, stocker et traiter les données là où elles sont, offrant disponibilité et rapidité. Elle synchronise également les données de manière sécurisée et efficace dans l’ensemble de l’écosystème d’applications, dès que la connectivité le permet, afin d’assurer une cohérence optimale.

Garantir la disponibilité dans une démarche éco-responsable

L’infrastructure de traitement des données et de calcul à la frontière du réseau (en périphérie, à l’edge) comme dans la camionnette de la clinique popup ou sur la plateforme pétrolière, seront essentiels pour réduire la dépendance à l’égard des datacenters distants. Le choix d’un développement responsable consiste de plus en plus à concevoir et à développer des applications qui continueront à fonctionner, même lorsque la connexion réseau est interrompue ou indisponible. Cette approche permet d’utiliser le potentiel de connectivité le plus efficacement possible lorsqu’elle est disponible.

Une architecture en périphérie peut réduire le temps de latence de près de 90 % par rapport à une architecture cloud, permettant d’économiser de la bande passante grâce à un volume de données transférées réduit de près de 30 %. L’usage de l’edge computing permet alors aux entreprises de soutenir leurs efforts d’éco-responsabilité, en utilisant l’énergie la plus proche, et dans une moindre mesure.

Un traitement de données plus efficace et plus rapide offre aussi aux organisations de tous secteurs (les transports, l’industrie ou encore la santé) la possibilité d’exploiter au mieux les nouvelles technologies (réalité virtuelle, machines intelligentes) ou encore de mieux prédire leurs besoins et ceux de leurs utilisateurs finaux, à travers une analyse en temps réel des données.

Aller de l’avant

Au cours des deux dernières années, des technologies de nouvelle génération conçues pour assurer la disponibilité des applications pour plus d’utilisateurs et dans plus de lieux se sont multipliées. Ces progrès incitent les entreprises à adopter plus facilement des architectures périphériques pour garantir la vitesse, la disponibilité et l’utilisation efficace de la bande passante pour les applications, en particulier celles qui fonctionnent dans des lieux isolés et des zones blanches.

Une architecture périphérique nécessite encore quatre composants système fondamentaux : un environnement de calcul sur le cloud, un environnement de calcul en périphérie, un réseau reliant le cloud et la périphérie ainsi qu’une base de données qui se synchronise entre le cloud et la périphérie.
____________________________

Par Hervé Oliny, Solutions Engineering Southern Europe chez Couchbase