Manque de maturité des architectures multicloud, difficulté d’industrialisation des solutions d’IA, peur de ne pouvoir garantir la conformité avec les réglementations sur la gestion des données et leur sécurité… autant de freins au déploiement de grands projets d’Intelligence artificielle.
Nous entendons tous parler d’aide à la décision, d’analyse prédictive, de visualisation des données et des tendances, de reporting, de moteur de recherche intelligent… qui sont autant de tâches exécutables par des applications dès lors qu’elles ont la capacité d’exploiter des données de qualité et de façon industrielle. Si le Data Warehouse, le Data Lake, le HPC, la Business Intelligence, le Big Data et l’IA existent depuis des années, la nouveauté vient de l’énorme volume de données issues d’internet et de l’IoT, de la capacité à consolider et visualiser les données en temps réel et d’industrialiser les projets d’IA. Sans l’adoption de ces évolutions technologiques, les entreprises auront bien des difficultés à être innovantes.
Données structurées ou non-structurées, pourquoi les consolider ?
Si les données métiers stockées dans des bases de données sont, depuis une vingtaine d’années, centralisées dans des Data Warehouse, Internet et l’IoT ont complexifié cette centralisation avec une croissance exponentielle de données non structurées.
La nouveauté tient non seulement au volume et à la diversité des données mais aussi au caractère temps réel de ces opérations. Issues de l’internet (logs, photos, vidéos, sons, bases de données, objets connectés), de l’IoT (données collectées sur des objets unitaires en mouvement ou statiques) ou du Edge Computing (données collectées sur des sites de production par exemple), ces données non structurées sont stockées dans des Data Lake. Traitées par des outils de BI ou Big Data, elles délivrent des informations permettant de faire des analyses prédictives, de tirer des enseignements comportementaux, de révéler des tendances, etc.
La différence entre la collecte et la consolidation d’hier et d’aujourd’hui tient à la rapidité d’exécution de ces opérations. Là où auparavant, elles se faisaient de façon trimestrielle ou mensuelle, elles sont désormais réalisées en quasi-temps réel. Une réactivité qui révolutionne les applications en apportant de nombreux bénéfices. A titre d’exemple, citons la visualisation instantanée d’un retrait d’argent effectué depuis n’importe quel distributeur sur un compte bancaire ou la possibilité pour une entreprise d’être alertée en temps réel d’un dysfonctionnement sur une chaîne de production.
Pas d’Intelligence Artificielle sans données qualitatives
Pour délivrer une information pertinente, compréhensible et à valeur ajoutée, la donnée doit s’avérer de qualité, contextualisée et enrichie. Ainsi, en croisant et en explorant toutes sortes de données, les outils de Big Data et de BI, révèlent des relations de cause à effet qui ne tombent pas sous le sens et qui mettent en lumière des liens entre des événements distincts.
Dans le retail, par exemple, en analysant l’historique des achats ces outils permettent de comprendre les pratiques des consommateurs (moments d’achats, valeurs, type d’articles, canal d’achat, etc), d’en déduire des tendances et de faire des prédictions d’achats.
Les recherches scientifiques nécessitant, quant à elles, des calculs complexes et des traitements de données massives en temps réel, les entreprises utilisent le HPC ou High Performance Computing. C’est le cas notamment de la santé avec les recherches sur le génome ou le cas de l’industrie pharmaceutique avec la production de médicaments.
Aujourd’hui, tout l’enjeu des entreprises réside donc dans leur capacité à intégrer et déployer ces outils sans lesquels elles ne peuvent tirer des informations intelligentes, intelligibles et en temps réel.
L’IA au service de la prédiction
Les entreprises ont aujourd’hui bien saisi toute l’importance de l’IA dans l’automatisation d’un certain nombre de processus et dans la production d’informations pertinentes. Néanmoins elles utilisent souvent cette technologie de façon parcimonieuse au travers de POC (proof of concept). Prédictions de pannes de chaîne de production, préconisations d’achats de circonstances ou enrichissement des demandes via un moteur de recherche, les projets lancés sont divers mais se cantonnent à des périmètres restreints. En effet, toutes les entreprises n’ont pas encore mesuré toute l’importance de passer à l’industrialisation de l’IA pour déployer des projets d’envergures et réellement innovants pour les métiers.
La majorité des dirigeants français estiment aujourd’hui qu’ils doivent miser sur l’IA pour atteindre leurs objectifs de croissance, mais la plupart craignent de déployer une IA à grande échelle. Cette inquiétude vient de leur difficulté à appréhender le déploiement d’une IA massive sur des architectures informatiques multicloud. Tant qu’un projet type POC se réduit à un cas d’usage sur un périmètre réduit, le déploiement de l’IA est facile et sans risque. Mais dès lors qu’ils utilisent des milliers de données et de nombreuses fonctionnalités dispersées dans des cloud, les projets doivent prendre en compte les aspects législatifs, réglementaires, de traçabilité et de sécurité. Ils doivent être intégrés dans un processus de production sécurisé, transparent et capable d’être auditable. Par crainte de ne pas satisfaire toutes ces exigences, la majorité des entreprises restent au stade de POC.
Aussi, pour les aider dans leurs démarches d’industrialisation des process Analytics (Datalake, DataWarehouse, BI, Big Data, HPC, IA) et de maîtrise de leurs données, je conseille d’utiliser des briques technologiques dissociées des offres cloud public et de les intégrer dans un process DevOps / CloudOps pour accélérer leurs déploiements.
___________________
Par Yves Pellemans, CTO, Directeur Technique d’Axians