La baisse du coût du stockage, l’augmentation massive de la production des données et la « cloudification » des systèmes d’information ont conduit les entreprises repenser la valorisation de leurs data. Quelle stratégie pour faire parler les données et en tirer un avantage compétitif ?

En 2010, Eric Schmidt, CEO de Google, déclarait qu’en deux jours l’humanité générait un volume d’informations équivalent à celui créé entre la naissance de la civilisation et le nouveau millénaire. En 2017, nous recevons quotidiennement 5 fois plus d’informations qu’en 1986. Enfin, selon Wikibon, en 2020 la génération de données sera 44 fois plus grande qu’elle n’a été en 2009.

Avec la prédominance des réseaux sociaux et l’accès haut débit mobile, la plus grande partie de données émises et partagées dans le monde est générée par les utilisateurs eux-mêmes : blogs, réseaux sociaux, sites de partages d’images, de musique et de vidéos. Ainsi, aujourd’hui, une seconde sur internet c’est :

– 8 000 Tweets envoyés
– 800 photos téléchargées sur Instagram
– 3 000 appels Skype
– 50 000 Go de trafic internet
– 65 000 recherches sur Google
– 72 000 vidéos visionnées sur Youtube
– 2 700 000 emails envoyés

(Source : Internet Live Stats, octobre 2017)

En parallèle, les smartphones sont devenus des hubs de contrôle personnels pour tous les objets connectés (trackers d’activité, maison connectée, voiture connectée, etc.) : on estime qu’en moyenne un individu possède 2,5 appareils. Cette masse gigantesque de données, structurées et non structurées, augmente de manière exponentielle et se comprend sous le terme générique de big data.

La croissance des données est tirée par plusieurs facteurs :

– Les coûts du traitement des données sont presque 60 fois inférieurs aujourd’hui qu’il y a 10 ans.
– Le coût de la bande passante est 40 fois moins important qu’il y a 10 ans.
– Le prix moyen des capteurs est passé de 1,30$ il y a 10 ans à 0,60$ aujourd’hui, ce qui favorise notamment le déploiement de l’Internet des objets à grand échelle.

La diminution drastique du coût du hardware, en particulier le stockage, a été probablement décisive dans la croissance des données ces dernières années. Si le stockage valait encore 100 dollars pour un gigabyte, la problématique du big data ne se posait pas.

Confrontées à l’effervescence autour du big data, les DSI ont dû envisager différemment leur politique de stockage de données provenant d’une multitude de sources. Aujourd’hui les données des entreprises proviennent de capteurs installés dans les usines et sur les outils de production, des objets connectés, du trafic web et mobile, des médias sociaux. Mais prises isolément, toutes ces données n’ont qu’une valeur « au poids », c’est-à-dire marginale. La valeur ne se crée qu’avec la contextualisation, quand on arrive à les regrouper, les mettre en relation et les décrypter pour donner du sens.

Certes, les entreprises manipulaient et exploitaient déjà leurs données avec les techniques de « Business Intelligence », mais les nouveaux types de données informelles et non structurées ont vite fait ressortir les insuffisances de ces outils classiques en termes de puissance, de rapidité, de flexibilité et de précision pour tirer des enseignements du big data. Cette rupture explique l’arrivée des outils analytiques avancés qui analysent des volumes de données jusqu’ici inimaginables pour apporter des réponses précises aux questions posées.

Selon une étude réalisée en 2014 par EY auprès de 152 entreprises françaises avec des effectifs de 500 à 2 000 personnes :

– 45% des entreprises collectaient des données non structurées,
– 30% ont recruté des profils spécifiques dédiés au traitement et à la gestion de la data,
– 18% avaient des plans d’action big data en cours de déploiement,
– 10% des entreprises disposaient d’outils d’analyse prédictive,
– Pour 70% des entreprises interrogées, l’ensemble des ressources dédiées au traitement des données client représentait moins de 10 personnes.

Certes, la situation a évolué depuis, mais pour beaucoup le concept du big data reste encore difficile à appréhender. Pourquoi ? Parce qu’il s’applique à toute la chaîne de valeur de l’exploitation des données : de la collecte à la sécurité, en passant par l’analyse et la stratégie globale de l’entreprise. Le big data est avant tout une prise de conscience du potentiel non exploré des masses de données disponibles. Leur exploitation plus cohérente et transversale par la data science et des outils analytiques avancés et prédictifs représente pour les entreprises un levier inédit de productivité et de croissance.

Analyse prédictive : contextualiser la donnée pour créer de la valeur

L’exploitation des données massives répond à trois enjeux majeurs pour chaque entreprise : améliorer la performance opérationnelle/industrielle, la performance commerciale, la connaissance client.

Historiquement on utilisait les statistiques pour réaliser des comptages simples et analyser des fréquences. Ensuite le data mining a commencé à mettre en relation des différents phénomènes tout en prenant en considération des volumes plus importants de données, mais principalement accessibles et structurées. Aujourd’hui, en s’appuyant sur des algorithmes, sur le machine learning et la data science, l’analyse prédictive permet d’exploiter tout type de données pour mettre en place de nouveaux modèles d’interprétation et de prédiction, en tirer des prévisions sur des évolutions futures et émettre des recommandations sur les actions à mener. Citons les exemples les plus répandus :

– Maintenance prédictive : analyser les signaux de la chaîne de production pour anticiper des défaillances et changer les pièces avant que la panne ne se produise.
– Détection des fraudes : détecter des fraudes ou des pannes pour agir avant qu’elles ne se produisent.
– Analyse des comportements des clients : comprendre leurs motivations, identifier les meilleures façons de les prospecter et de les fidéliser pour proposer à chacun des services personnalisés au bon moment par le canal le plus pertinent.

L’analyse prédictive est un outil décisionnel inédit et efficace, capable d’aider à redéfinir toutes les activités de l’entreprise, redistribuer les ressources, entamer une transformation organisationnelle, etc. Pour utiliser pleinement le potentiel accumulé des leurs données et acquérir un avantage compétitif, les entreprises doivent rapidement intégrer de nouvelles méthodes d’analyse dans leur stratégie globale.

_________
Luc Rio est directeur analytics chez Avanade France