Il est fini le temps de l’unique data center. Pour gérer l’explosion de la donnée, les entreprises doivent opter pour une architecture bicéphale avec des data centers de proximité et des data centers centraux. Si les premiers permettent de collecter et de prétraiter les données issues notamment de l’IoT et de répondre à des problématiques locales, les seconds délivrent des informations plus stratégiques pour l’entreprise grâce à une puissance de calcul et à des outils de machine learning et d’IA.

Optimiser les processus, améliorer la relation clients, patients ou citoyens, réduire les coûts de production, anticiper des évènements, toutes les entreprises sont convaincues de l’utilité de la donnée pour répondre à ces problématiques. Mais toutes se heurtent à l’afflux de données. Comment collecter, transporter, traiter, analyser, sécuriser, archiver, stocker toutes ces données ? Comment tirer parti de ces millions de données issues des objets connectées, du big data et de l’IA ? Selon une étude d’IBM de 2018, chaque jour, 2,5 quintillions de bytes de données sont générés dans le monde.

Une explosion qui s’accélérera de façon exponentielle sous l’impact des 200 milliards d’objets connectés d’ici 2020. Comment alors extraire de la valeur des données structurées ou non, internes ou externes à l’entreprise en un temps réduit et sans recourir à des ressources humaines supplémentaires ? Un enjeu qui trouve sa résolution dans l’automatisation de la gestion de la donnée via la mise en place d’un data center autonome structuré autour de deux piliers.

Le Edge computing répond aux problématiques locales

Le premier pilier : un data center local pour traiter au plus près les données issues des objets connectés. Baptisé Edge Computing, ce data center local, repose sur une infrastructure appelée Software Defined Data Center (SDDC) permettant aux équipes opérationnelles de construire, depuis une console via du code, des services applicatifs. Avec le SDDC toutes les ressources du datacenter – serveurs, stockage, réseau, sécurité- sont exécutées et automatisées par le logiciel conformément à des règles préétablies.

Les entreprises disposent alors de catalogues de services personnalisés et proposent à leurs utilisateurs l’IT as a Service. Ces datacenters locaux fournissent de la mémoire cache (data caching) réduisent le temps de latence et le traitement des données et assurent une plus grande confidentialité et sécurité des données. Ils permettent également d’homogénéiser les infrastructures multisites par le déploiement d’une solution identique, assurent une mise en service rapide et réduisent le coût total de possession. Le Edge computing est idéal pour répondre aux problématiques métiers d’un hôpital, d’un retailer, d’une ville, d’une collectivité.

Le data center central, délivre des informations stratégiques


Deuxième pilier de ce data center autonome : le data center central construit au tour d’un datalake, capable de traiter de la donnée structurée ou non structurée et d’un datawarehouse pour les bases de données. Ainsi, les outils d’automatisation des centres de données de proximité envoient les données pré-consolidées et prétraitées au data center central où elles sont traitées par des applicatifs plus complexes, des outils de BI, des algorithmes de machine learning et d’IA.

Croisées avec des données issues de l’extérieur, les données internes à l’entreprise délivrent alors des informations plus stratégiques pour l’entreprise que ce soit relatif à l’amélioration des process, de la relation client, patient, citoyen, ou relatif à des actions préventives ou prédictives. Des outils d’automatisation donnent à ce data center central un grand degré d’autonomie dans le traitement de la donnée, déchargeant ainsi la DSI de tâches répétitives et chronophages. Extraites de ce data center central, certaines données peuvent alimenter des applicatifs disponibles dans le cloud public permettant ainsi aux entreprises de proposer rapidement de nouveaux services et usages.

Aujourd’hui sous la contrainte de l’explosion des données, les entreprises sont contraintes de repenser l’organisation de leur gestion de la donnée et leurs infrastructures. Cette architecture bicéphale permet, d’automatiser l’extraction de la valeur de toute la masse de données issues des objets connectés et cela en un temps réduit et sans recourir à des ressources humaines supplémentaires. Le data-driven, seul salut à la compétitivité des entreprises.

___________
Yves Pellemans est CTO et directeur de la stratégie & innovation pour Axians France