Face à l’explosion des données, les entreprises doivent repenser leurs infrastructures autour de deux piliers : des data centers de proximité et un data center central. Alors que les premiers collectent et prétraitent les données, notamment celles issues de l’IoT, et répondent à des problématiques locales, le second délivre des informations plus stratégiques pour l’entreprise grâce à une puissance de calcul et à des outils de machine learning et d’IA.

Optimiser les processus, améliorer la relation clients, patients ou citoyens, réduire les coûts de production, anticiper des évènements, toutes les entreprises sont convaincues de l’utilité de la donnée pour répondre à ces problématiques. Mais toutes se heurtent à l’afflux de données. Comment collecter, transporter, traiter, analyser, sécuriser, archiver, stocker toutes ces données ? Comment tirer parti de ces millions de données issues des objets connectées, du big data et de l’IA ? Selon une étude d’IBM de 2018, chaque jour, 2,5 quintillions de bytes de données sont générés dans le monde.

Une explosion qui s’accélérera de façon exponentielle sous l’impact des 200 milliards d’objets connectés d’ici 2020. Comment alors extraire de la valeur des données structurées ou non, internes ou externes à l’entreprise en un temps réduit et sans recourir à des ressources humaines supplémentaires ? Un enjeu qui trouve sa résolution dans l’automatisation de la gestion de la donnée via la mise en place d’un data center autonome structuré autour de deux piliers.

Edge computing : le data center de proximité

Le premier pilier : un data center local pour traiter au plus près les données issues des objets connectés. Baptisé Edge Computing, ce data center local, repose sur une infrastructure appelée Software Defined Data Center (SDDC) permettant aux équipes opérationnelles de construire, depuis une console via du code, des services applicatifs. Avec le SDDC toutes les ressources du data center – serveurs, stockage, réseau, sécurité- sont exécutées et automatisées par le logiciel conformément à des règles préétablies. Les entreprises disposent alors de catalogues de services personnalisés et proposent à leurs utilisateurs l’IT as a Service.

Ces data centers locaux fournissent de la mémoire cache (data caching), réduisent le temps de latence et le traitement des données et assurent une plus grande confidentialité et sécurité des données. Ils permettent également d’homogénéiser les infrastructures multisites par le déploiement d’une solution identique, assurent une mise en service rapide et réduisent le coût total de possession. Le Edge computing est idéal pour répondre aux problématiques métiers d’un hôpital, d’un retailer, d’une ville, d’une collectivité.

Le data center central : puissance de calcul, machine learning et IA

Deuxième pilier de ce data center autonome : le data center central construit au tour d’un datalake, capable de traiter de la donnée structurée ou non structurée et d’un datawarehouse pour les bases de données. Ainsi, les outils d’automatisation des centres de données de proximité envoient les données pré-consolidées et prétraitées au data center central où elles sont traitées par des applicatifs plus complexes, des outils de BI, des algorithmes de machine learning et d’IA. Croisées avec des données issues de l’extérieur, les données internes à l’entreprise délivrent alors des informations plus stratégiques pour l’entreprise que ce soit relatif à l’amélioration des process, de la relation client, patient, citoyen, ou relatif à des actions préventives ou prédictives. Des outils d’automatisation donnent à ce data center central un grand degré d’autonomie dans le traitement de la donnée, déchargeant ainsi la DSI de tâches répétitives et chronophages. Extraites de ce data center central, certaines données peuvent alimenter des applicatifs disponibles dans le cloud public permettant ainsi aux entreprises de proposer rapidement de nouveaux services et usages.

Aujourd’hui sous la contrainte de l’explosion des données, les entreprises sont contraintes de repenser l’organisation de leur gestion de la donnée et leurs infrastructures. Cette architecture bicéphale permet, d’automatiser l’extraction de la valeur de toute la masse de données issues des objets connectés et cela en un temps réduit et sans recourir à des ressources humaines supplémentaires. Le data-driven, seul salut à la compétitivité des entreprises.

___________
Yves Pellemans est CTO et directeur de la stratégie & innovation pour Axians France