Omniprésents, les appareils connectés génèrent des volumes de données de plus en plus importants. Encore faut-il faire quelque chose d’utile de ces données. Leur volumétrie impose de nouvelles approches dans leur collecte, leur traitement, et la valeur à en tirer. L’analyse des données dans le Edge Computing est la clé des capacités de prédiction des entreprises modernes.
Dans un monde « always-on » où tout est opérationnel en permanence, les appareils connectés ont conquis la quasi-totalité des secteurs d’activité. Selon Statista, l’approvisionnement en énergie, air conditionné, ou en eau, la gestion des déchets, la grande distribution et le commerce de gros, les transports et le stockage, ainsi que les administrations publiques, comptent plus de 100 millions d’appareils connectés. Ces chiffres, en outre, ne tiennent pas compte de domaines tels que l’industrie manufacturière ou les fournisseurs de services de communications (CSP). Au total, le nombre d’appareils connectés devrait franchir le cap des huit milliards d’ici à 2030, tous secteurs d’activité confondus.
Ces derniers génèrent de gigantesques, et de plus en plus importants, volumes de données. Toutefois, pour que les entreprises obtiennent les résultats métier escomptés, leur gestion et leur protection doivent être efficaces et avoir lieu d’un bout à l’autre de leur cycle de vie, c’est-à-dire du déploiement à la mise hors service. Or, les approches traditionnelles ne sont pas adaptées au volume, aux modes de connectivité et aux exigences de sécurité propres à l’edge computing (ou informatique de périphérie).
Rapidité d’information grâce aux données périphériques
La majorité des données générées en périphérie du réseau contiennent divers signaux et bruits. Les approches analytiques traditionnelles exigent de transférer la totalité des données entre la périphérie et le cœur du réseau avant d’en mesurer l’utilité, ce qui induit des coûts et une complexité considérables. De plus, la plupart des données sont utiles pendant de courtes périodes, généralement de l’ordre de quelques millisecondes. Ainsi, ces modèles informatiques classiques ne conviennent pas aux appareils connectés, puisque pour apporter la valeur attendue, l’analyse doit se situer au plus près de la source. Correctement mis en œuvre, l’edge computing offre une étude des informations rapide et une prise de décisions opportunes dans les scénarios où la latence joue un rôle crucial — et ce, sans pâtir de la complexité, du coût et des problèmes de confidentialité qui caractérisent l’informatique centralisée.
La supply chain a connu pendant deux ans des problèmes qui ont perturbé les activités d’un grand nombre d’entreprises. L’informatique de périphérie permet toutefois d’éviter ce type de situation en fournissant aux organisations une vision holistique de leur activité — de leur environnement informatique, de leurs stocks ou des données relatives au comportement de leurs clients — afin de prévoir les tendances des acheteurs, de déterminer les prix et de surveiller la disponibilité des produits, de l’entrepôt aux linéaires.
Les données générées en amont et en aval de la supply chain sont recueillies par des robots chargés de préparer et de conditionner les commandes automatiquement, ou par des étagères intelligentes capables de suivre l’évolution des stocks dès qu’elles détectent un changement de poids des marchandises, et ce jusqu’au fournisseur — sans oublier les systèmes logistiques connectés qui géolocalisent les véhicules en cours de livraison. Ces informations sont ensuite intégrées à un jumeau numérique de la supply chain, qui aide les clients à moduler l’offre en fonction de la demande, tout en améliorant la visibilité ou la prévision des comportements d’achat.
Ces possibilités s’appliquent également au secteur du transport avec, par exemple, la surveillance en temps réel des flottes au moyen de capteurs qui indiquent notamment l’endroit où se trouvent un véhicule sur son itinéraire, ou à quel moment de nouveaux véhicules sont ajoutés. De même, les transporteurs peuvent savoir si et quand une révision est nécessaire, identifier le centre d’entretien le plus proche et ajuster leur calendrier de livraisons avant que le véhicule ne perturbe le bon déroulement du processus logistique.
Prédiction et anticipation par l’analyse des données
S’agissant des environnements de fabrication, la maintenance prédictive et les jumeaux numériques aident les équipes à identifier les problèmes avant qu’ils ne surviennent, évitant ainsi des indisponibilités opérationnelles et des baisses de productivité. Si un incident est détecté, des outils automatisés procèdent aux réparations et à la remise en service, l’empêchant par conséquent de se propager à l’ensemble du réseau. Ces mêmes solutions sont également capables de surveiller et de mesurer les performances des équipements, tout en indiquant si elles sont conformes aux objectifs environnementaux, sociaux et de gouvernance (ESG) sur le plan de l’efficacité et de la neutralité carbone.
Dans cette quête d’efficience, de nombreuses entreprises évoluent vers la convergence des technologies informatiques (IT) et opérationnelles (OT), celles-ci englobant les éléments rattachés aux usines, à l’industrie et aux véhicules, tandis que l’IT couvre les aspects concernant l’automatisation, l’analyse et la capacité à anticiper davantage. Les organisations ne veulent plus gérer deux piles distinctes, mais au contraire, les fédérer. À cet effet, elles doivent réfléchir à l’automatisation du pipeline de données de bout en bout, en recherchant des moyens d’être plus prédictives et prescriptives dans leur comportement, ainsi qu’en gérant le cœur et la périphérie du réseau à partir d’une seule et unique plateforme.
Les données sont interopérables, et les entreprises ne doivent plus les utiliser avec une approche en silos. Il convient à ce titre de réfléchir à la façon d’intégrer la périphérie et le cœur du réseau pour tirer avantage des données créées de part et d’autre, dans le but de prendre des décisions plus rapidement, tout en en conservant certaines à proximité du centre pour les rendre pertinentes.
En les générant, traitant, stockant et gérant à proximité de la source, mais aussi en procédant à des changements culturels et organisationnels favorisant la convergence des technologies OT et IT, devenir une entreprise centrée sur les données n’est plus un objectif lointain et difficilement réalisable, mais un voyage qu’il est possible d’entreprendre dès aujourd’hui.
____________________________
Par Ram Chakravarti, CTO chez BMC Software