Le cabinet d’études Forrester a recensé 22 des technologies Big Data les plus importantes, depuis l’IA et l’apprentissage automatique, le Big-Data-as-a-Service ou l’analyse prédictive.

En seulement quelques années, s’est créé un véritable écosystème d’acteurs et de technologies autour du big data. Côté technologies, on assiste à un foisonnement sans pareil, certaines ayant déjà fait leur preuve, d’autres ayant encore quelques années de maturation devant elles. IL y a plus de trois douzaines de projets open source autour d’Hadoop dont beaucoup nécessitent des développements, explique xx, analyste du cabinet Forrester dans l’édition 1T2016 du TechRadar intitulé Big data is critical technology for Insight-Driven Business. Par exemple, Chuckwa release 0.6 qui fournit un système de supervision pour les plates-formes Hadoop.

Parmi les tendances clés, la capacité d’analyser les données en temps réel constitue un domaine important d’innovation. Autre tendance significative, les projets importants d’aujourd’hui ne consiste pas dans la mise en œuvre d’Hadoop, de Spark  ou d’autres modules complémentaires pour répondre à des besoins techniques de gestion de données mais plutôt de lancer des initiatives pour améliorer la connaissance client, des projets d’Internet des objets ou de détection de fraudes. Et pour réussir, ces initiatives nécessite des déploiements de stacks complets de logiciels de big data.

Deux technologies sont en train d’émerger. Intelligence artificielle et bibliothèques de machine learning. L’IA a été sous les feux des projecteurs ces derniers temps avec le match de jeu de GO opposant Lee Se-dol et le programme développé par Deepmind, la filiale de Google. La victoire sans appel du programme informatique (4-1) contre le champion du monde a montré les progrès accomplis dans la discipline ces dernières années.  La conférence plénière du salon Big Data qui s’est tenue à Paris il y a deux semaines était aussi centrée sur l’Intelligence artificielle.

Cette nouvelle vague de l’IA s’appuie largement sur le big data et les techniques statistiques renforcée par la disponibilité de capacités de calcul toujours plus grande et de volume de données considérables.

Autre technologie émergente, les bibliothèques de machine learning. Les principaux fournisseurs de big data en mode cloud propose des services et des API qui peuvent être appliquées à des ensembles de données.

Certaines technologies sont devenues pleinement matures même si elles attirent moins l’attention. C’est les cas des data warehouses MPP qui permettent d’analyser de grands volumes de données structurées stockées en ligne ou en colonne dans des data warehouses pour des traitements en parallèle par des logiciels de Business Intelligence.

Dans son rapport, Forrester identifie et évalue 22 des technologies Big Data les plus importantes, depuis l’intelligence artificielle et l’apprentissage automatique (machine learning) jusqu’au Big-Data-as-a-Service, l’intégration des données et les analyses prédictives. Il classe chacune de ces technologies selon son degré de succès de minimal à significatif, regardant son état actuel, sa valeur future, son degré de maturité et sa trajectoire globale (voir schéma ci-dessous).

20 Big data 1

Forrester  constate que la majorité des technologies Big Data sont soit en phase de croissance, soit en phase de survie – y compris des technologies telles que le chiffrage des données, la virtualisation des données, l’analytique en continu et SQL-for-Hadoop. Cela signifie qu’elles ont atteint un stade de déploiement pour des projets en production. Pourtant, malgré ce niveau de maturité, les entreprises sont de plus en plus exigeantes en matière de Big Data, et attendent de ces technologies qu’elles leur apportent des perspectives leur permettant une réelle amélioration de leur modèle économique. Les outils MPP data warehouse constituent  la seule technologie ayant réussi à atteindre la phase d’équilibre, la plaçant en tête du classement des outils capables d’aider les entreprises à répondre à leurs besoins en matière d’analytique de gestion des données de bout en bout dans les années à venir.