Face aux limites des modèles cloud centralisés, les infrastructures hyperconvergées redéfinissent les stratégies informatiques distribuées : grâce à leur simplicité d’implantation et à leur capacité d’optimisation des performances, elles permettent aux entreprises de relever les défis du edge computing tout en maîtrisant leurs coûts.

Le marché des services cloud est de plus en plus guidé par des clients aux exigences informatiques très ciblées, à la recherche de solutions conçues spécifiquement pour répondre aux différents cas d’utilisation de l’informatique en périphérie et distribuée. Des attentes légitimes dans la mesure où l’informatique dématérialisée, option incontournable pour les entreprises dont les fonctions sont centralisées, s’est finalement révélée moins avantageuse pour les organisations qui dépendent d’une infrastructure distante. Le traitement et la protection des données périphériques sont des exemples typiques pour les entreprises qui déploient des stratégies « cloud-first » sans assistance sur site. Or, les applications distantes critiques peuvent souffrir de problèmes de performance et de fiabilité, ce qui, par ricochet, rend les contrats d’informatique dématérialisée coûteux et inefficaces.

Les défis à relever

Internaliser la mise en œuvre et le support sur site permet d’atteindre les niveaux élevés de fiabilité et de performances attendus, mais expose l’entreprise à de nouveaux défis (coût matériel, facture énergétique, etc.) que l’externalisation dans le Cloud était censée résoudre. À cela s’ajoutent des coûts d’administration et de maintenance qui peuvent devenir prohibitifs, voire le manque de ressources locales spécialisées et formées. Même en prenant en compte toutes ces exigences, la plupart des sites distants auront toujours besoin de se connecter au Cloud ou au Datacenter de l’entreprise. Charge aux équipes informatiques de décider quelles données doivent être stockées à la périphérie, dans le nuage ou dans leur centre de données.

À la recherche d’une approche économique et agile en matière d’informatique de périphérie, les organisations peuvent facilement se retrouver dépendantes d’une stratégie complexe et incohérente, rendue encore plus délicate depuis l’annonce récente de l’acquisition de VMware par Broadcom et les mises à jour des offres et de nouveaux tarifs d’abonnement qui ont suivi.

Suivre une nouvelle voie

Ces difficultés sont le quotidien des organisations qui, indépendamment de leur secteur d’activité, ont besoin d’avoir accès aux données en temps réel pour prendre des décisions éclairées, pour atteindre les performances attendues et pour maintenir l’efficacité des chaînes d’approvisionnement.

Dans le même temps, les applications de périphérie sont toujours plus nombreuses et complexes (appareils de surveillance de la santé des patients, caisses automatiques, jumeaux numériques utilisés dans les sites de production, etc), génèrent d’importantes quantités de données et exercent une pression toujours plus forte sur les centres de données existants et les services Cloud.

Les entreprises espèrent que la transformation numérique et les technologies d’analyse de l’IA vont leur apporter les améliorations de performance dont elles ont besoin. Par exemple, les données générées sur ces sites périphériques deviennent si sensibles au temps de latence que les systèmes d’IA doivent être déployés localement afin que la prise de décision suive le rythme des exigences opérationnelles.

Mais dans les faits, il n’y a pas le temps d’envoyer toutes les données vers le Cloud pour qu’elles soient traitées par l’IA. D’où l’idée de mettre en œuvre une plus grande partie de cette fonctionnalité à la périphérie. Selon IDC les dépenses mondiales en edge computing devraient atteindre 232 milliards de dollars en 2024 (+15 % par rapport à 2023) et près de 350 milliards de dollars d’ici à 2027.

Une approche rationalisée

Pour répondre à ces objectifs, les entreprises peuvent mettre en œuvre une infrastructure hyperconvergée (HCI) à la périphérie dans le cadre de leur stratégie cloud. Cette infrastructure HCI consolide les ressources informatiques, de réseau et de stockage au sein d’une architecture de centre de données unique et rationalisée.

Contrairement aux approches traditionnelles qui reposent sur du matériel et des logiciels spécialisés pour chaque fonction désignée, la virtualisation réduit les besoins en serveurs sans affecter les performances. En exécutant les applications et en stockant les données sur chaque site distant, cette approche permet également de bénéficier d’une connectivité au Cloud et au Datacenter adaptée en fonction des besoins. Ces résultats peuvent être obtenus sans les problèmes d’architecture matérielle et de mise en œuvre associés aux technologies traditionnelles de périphérie.

Il est particulièrement intéressant de noter que les solutions HCI actuelles sont conçues en tenant compte des limites des petits sites distants. Elles intègrent des fonctions qui simplifient le processus de connexion des technologies de pointe aux services Cloud et aux centres de données des entreprises. Les plus efficaces fournissent ces fonctionnalités avec seulement deux serveurs, sans compromettre ni la disponibilité ni les performances, grâce à un basculement en seulement trente secondes qui préserve l’intégrité des données et permet la continuité des opérations en cours. Autant d’avantages offerts aux entreprises en réduisant, dans le même temps, les coûts grâce à la réduction des dépenses en matériel, ainsi que l’empreinte physique, la consommation d’énergie et les coûts de maintenances par rapport aux technologies traditionnelles.

De plus, du fait de leur simplicité d’installation et de gestion à distance, la mise en œuvre de solutions HCI ne requiert pas la compétence d’experts dédiés. Les systèmes sont généralement déployés et opérationnels en moins d’une heure, ce qui évite de perturber les opérations quotidiennes de l’entreprise. Et l’évolutivité des systèmes HCI permet aux utilisateurs de répondre sans délais aux changements de la demande liés à l’évolution de leurs besoins, sans devoir procéder à des reconfigurations complexes.

Au quotidien, les outils de gestion centralisée permettent aux administrateurs de gérer et de sécuriser à distance tous les sites périphériques à partir d’une console unique. Ensuite, le système équilibre et alloue automatiquement les ressources informatiques et de stockage en temps réel, en optimisant les ressources matérielles pour une efficacité maximale – évitant ainsi un sur provisionnement inutile et coûteux.

Si l’on tient compte de tous ces éléments, les organisations qui s’appuient sur une infrastructure de périphérie efficace disposent désormais d’une alternative fiable face aux solutions héritées inefficaces. Il est donc désormais possible de créer une stratégie de périphérie gagnant-gagnant qui offre les avantages d’une informatique à distance puissante avec la valeur et la flexibilité que seule l’informatique en nuage, le cloud, peut offrir.
____________________________

Par Bruce Kornfeld, Chief Product Officer chez StorMagic 

 

À lire également :

Le Edge Computing transforme les défis du retail en opportunités…

L’analyse des données à l’edge, clé de la prédiction pour les entreprises modernes

Edge Computing : développer une architecture périphérique

Quatre tendances d’edge computing à surveiller 

« HCI, Multicloud, IA… Nutanix est une entreprise hyperconvergente…. »