Si l’edge computing n’est pas nouveau, sa définition et son application sont en constante évolution et de nouvelles tendances Edge se dessinent en 2022. D’ici 2025, Gartner estime que le marché comptera 150 milliards d’appareils périphériques, allant des capteurs IoT aux routeurs Internet, en passant par des technologies portables aux robots d’usine.

Edge Computing… Le terme englobe aussi bien les systèmes informatiques locaux d’usines et de fournisseurs de télécommunications, que les systèmes distribués des magasins de distribution et de leurs succursales.

En parallèle d’architectures plus anciennes soutenant les déploiements d’edge computing, on trouve à présent des tendances périphériques véritablement nouvelles ou du moins très différentes de ce qui existait auparavant : elles aident les responsables informatiques et les dirigeants d’entreprise à résoudre des problèmes dans des secteurs allant des télécommunications à l’automobile, à mesure que les données des capteurs et de l’apprentissage automatique prolifèrent.

Quelles sont les nouvelles tendances et applications de l’edge computing qui s’inscriront, cette année, dans les pratiques ?

Les charges de travail en périphérie augmentent

L’un des grands changements en cours est l’augmentation du recours à l’informatique et au stockage périphériques. Les entreprises s’appuient de plus en plus sur les données pour prendre leurs décisions, résoudre leurs problèmes matériels, mais aussi se démarquer de leurs concurrents et stimuler leur activité.

Cette approche « data-driven » s’articule sur un grand nombre de sites périphériques, au plus proche des utilisateurs finaux, tels que des hôpitaux, des campus universitaires, des usines de fabrication, des réseaux de magasins, des trains, etc, qui nécessitent des ressources de calcul, de stockage ou encore de réseau en-dehors des datacenters centraux.

L’edge computing permet aux entreprises d’atteindre rapidement des objectifs opérationnels et commerciaux et de générer des revenus depuis ces sites déployés en périphérie des datacenter centraux. Mais la tâche peut vite devenir complexe et vaste en raison de la multiplication du nombre de sites et de capteurs à gérer, et du volume grandissant de données produites. La collecte de données issues de l’IoT a en effet fortement augmenté, avec le risque d’être très vite dépassé face au traitement de ces données en temps réel.

Pour cela, l’IA, le Machine Learning, voire même le Deep Learning, apparaissent comme essentiels. Le secteur manufacturier s’appuie sur ces technologies poussées pour traiter en temps réel les données issues des caméras de surveillance qui repèrent les défauts d’une chaîne de production et procéder ainsi à des contrôles de qualité dans les usines et sur les chaînes de production. Ce mécanisme permet d’améliorer le rendement de production et la productivité des entreprises.

Un autre cas d’usage à citer est la maintenance prédictive, via des capteurs de chaleur, de vibration ou de pression, qui permettent d’anticiper les dysfonctionnements, de réduire l’impact sur la production et le gaspillage des matières premières, et donc de réduire les pertes de revenus. Un principe notamment appliqué par le secteur financier pour repérer des modèles de fraude financière en traitant l’information directement en périphérie, sans passer par le central.

Cloud RAN et Open RAN deviennent des cas d’usage Edge

Avec l’adoption croissante de Kubernetes et de la containerisation par les acteurs Telcos, de nouvelles tendances se dégagent comme le Cloud RAN – qui englobe la virtualisation et la containerisation des charges de travail – et l’Open RAN – qui permet d’étendre l’interopérabilité  des systèmes et de construire des réseaux d’accès radio multi-vendeurs, permet d’améliorer l’innovation avec un choix plus large de fournisseurs et d’ économiser potentiellement sur le coût total de possession du réseau par rapport aux déploiements de réseaux d’accès radio (RAN) traditionnelles.

Les opérateurs Telco sont amenés à fournir la connectivité aux entreprises via des réseaux privés 5G pour répondre aux besoins croissant de latence extrêmement faible, de bande passante élevée et d’une qualité de service de haut niveau pour traiter des flots massifs de données, qui nécessitent, le plus souvent, de l’être en temps réel. Grâce à cela, de nouveaux cas d’usage émergent, comme l’IoT massif, le « smart manufacturing », ou encore l’automatisation de cas sur lesquels les Telcos se positionnent, comme la télémédecine, le smart building, les Smart Cities. Le déploiement de la 5G doit passer par des architectures cloud natives qui ont besoin d’être distribuées, incitant à aller davantage vers l’edge. Il s’agit d’une réinvention totale du secteur, et donc des réseaux.

Le RISC-V gagne du terrain

La tendance RISC-V concurrence les architectures ARM ou x86, conçues pour simplifier les architectures et de réduire la consommation d’énergie électrique, un modèle particulièrement utile pour l’informatique embarqué, comme les portables et tablettes. L’ architecture RISC-V est donc très intéressante étant donné la volonté de réduire le niveau d’empreinte materielle à l’edge dans les systèmes IoT tout en maximisant la capacité de calcul en périphérie pour traiter les données à la source et ainsi réduire le transfert de taches vers les datacenters centraux.

Le RISC-V a la particularité d’être une architecture ouverte, construite sur un matériel conçu en fonction des décisions de la communauté, basées sur l’expérience collective et la recherche. Cette approche favorise l’innovation, soutenue par un écosystème qui se développe derrière. Avec le passage à l’informatique périphérique, le RISC-V suscite déjà une première vague d’investissements de la part de multinationales comme Alibaba, Andes Technology et NXP et de startups comme SiFive, Esperanto Technologies et GreenWaves Technologies qui conçoivent des solutions RISC-V innovantes pour l’IA périphérique.

L’informatique confidentielle devient plus importante à la périphérie

L’edge computing permet aux entreprises de répondre aux exigences de souveraineté des données sur le traitement des informations personnellement identifiables (PII). Pour cela, le Machine Learning permet d’anonymiser des données collectées à la périphérie avant de les envoyer dans des systèmes centralisés.

Un autre pan du défi concerne le respect des contraintes réglementaires, dans le cadre, par exemple, des données générées par les prestataires de santé locaux ou les institutions financières sous différentes réglementations nationales ou internationales. Le défi actuel est de savoir comment respecter au mieux ces contraintes réglementaires et sur quelles solutions s’appuyer.

La sécurité des données à l’edge est un enjeu prioritaire, qui présente certaines contraintes, à commencer par la complexité d’uniformiser les compétences IT sur des sites situés à distance et difficiles d’accès. Pour cela, il est capital de mettre en place des politiques de contrôle et une gouvernance et une conformité appropriées. Les entreprises doivent choisir leur stratégie de gestion des vulnérabilités et de sécurisation des données. L’automatisation va ici être d’une grande aide, en permettant d’automatiser les politiques de sécurité et de les uniformiser en dépit des contraintes de distance.

De son côté, l’informatique confidentielle permet de chiffrer les données pendant qu’elles sont utilisées par le dispositif informatique déployé en périphérie (ou à l’edge), et de les protéger, ainsi que le logiciel qui les traite, contre toute capture ou manipulation. L’informatique confidentielle sur les systèmes informatiques déployés en périphérie (ou à l’edge) devrait donc devenir une technologie de sécurité fondamentale au service de l’edge computing, pour garantir la sécurité des nombreux systèmes déployés à l’edge sans avoir à disposer d’experts opérant depuis ces sites distants pour sécuriser les données et les systèmes déployés en périphérie.
___________________

Par Salim Khodri, EMEA Edge Go-To-Market Specialist, Red Hat


À lire également :

> Objets connectés : le besoin majeur de dispositifs de sécurité pour l’Edge et l’IoT.

> Les apports du Edge Computing pour un monde plus durable.

> 1,8 milliard pour soutenir l’utilisation du cloud français dans l’industrie 4.0 à l’heure du Edge

> « On constate déjà une forte croissance des datas et des applications dans le Edge »

> « Je reste un Red-Hateur… Le rachat par IBM n’a pas changé la culture de Red Hat… »

> Containers : 5 tendances phares