Le big data est-il une évolution de la business intelligence ou doit-il être compris comme une approche radicalement nouvelle d’analyser les données ?

La création de volumes de plus en plus considérables de données n’est que la simple résultante du passage du monde analogique au monde numérique. Cette révolution est partie de l’univers Internet pour s’étendre à l’ensemble des activités humaines. S’agit-il d’une réellement d’une révolution où les idées et les approches définies pour la BI traditionnelle sont-elles toujours applicables ? « Le big data, c’est d’abord une manière différente d’aborder les données, commentait Damien Cudel, responsable du Marketing Data Insights chez Microsoft lors de la conférence Analytics & Big Data organisée par le groupe Alten. La BI traditionnelle est o15 big data 1rganisée selon une approche « “schema first” dans laquelle on définit d’abord un modèle de données. Le big data nourrit l’ambition d’être orienté “data first”. On observe les données et essaie d’en dégager des interprétations. Au fil du temps, de nouvelles idées ou de nouveaux algorithmes apparaissent qui engagent une nouvelle itération d’observation et d’analyse ».

Corollaire à cette démarche, le big data est avant tout une ambition métier avant d’être une problématique technique. C’est l’approche retenue par Bouygues Energies & Services en masquant autant que faire se peut la complexité de telle sorte que les utilisateurs finals puissent s’emparer de cette nouvelle possibilité. « La BI dans le bâtiment c’est par exemple une aide au suivi d’un contrat de performance dans lequel notre groupe s’engage sur une période de 25 à 30 ans, explique Lionel Cornec  de la direction des SI métiers. Il convient donc de fournir aux utilisateurs les outils nécessaires pour capter les données produits par les bâtiments de faire de la simulation et de l’analyse et ainsi de pouvoir créer des seuils d’alertes et trouver des pistes d’amélioration. » Or les bâtiments produisent de plus en plus de données : consommation, confort (température, humidité, CO2, luminosité…), équipements, facteurs d’influence (météo, occupation…). Jusqu’ici, il s’agissait de combiner les lois de physique et les statistiques. Avec la capacité à apporter des réponses aux clients liées à leurs préoccupations. Par exemple, les économies d’énergies ont-elles été réalisées grâce à un hiver moins rigoureux ou à l’installation d’une nouvelle chaudière ? Comment programmer des seuils d’alertes tenant compte des prévisions météorologiques ou intégrant d’autres facteurs externes ?

Comment aborder la prochaine étape avec la prolifération des données qui s’annonce et effectuer la transition vers le big data ? « C’est une question délicate car certaines des solutions analysées il y a deux ans sont déjà obsolètes », témoigne Lionel Cornec.

hadoop ou pas hadoop ?

« hadoop est un réponse efficace à de nombreux problèmes et les premiers projets en France sont lancés depuis un an, explique Damien Cudel. Mais hadoop tout seul ne permet pas de faire grand-chose, il faut y ajouter des couches applicatives supplémentaires. Et d’autres solutions techniques complémentaires existent comme les bases de données massivement parallèles ».

Cette montée en puissance de l’analytics est confirmée par la deuxième édition du Big Data Index réalisé par le cabinet IDC qui indique de 43 % des DSI ont – ou sont sur le point – de lancer un projet de big data en 2014 contre 7 % en 2012. Cette enquête montre que si les DSI s’inscrivent encore dans une démarche de BI traditionnelle, les directions marketing portent leur attention sur les données non structurées. Il est vrai que les clients, dont l’opinion intéresse au premier chef les directions marketing, génèrent des volumes importants de telles données, notamment via les réseaux sociaux. L’enquête confirme que les directions marketing considèrent que les projets big data peuvent être menées en dehors de la DSI.

Le big data est-il réservé aux seuls « data scientists » ou peut-il être mis dans les mains des utilisateurs finals ? » Si l’erreur suite à une démarche big data coûte cher, il est préférable qu’il soit réservé à la première catégorie, estime Damin Cudel. Si on peut lancer des expérimentations peu onéreuses en coût et en implications alors on peut l’ouvrir à une population plus large ».

« Le big data est un sujet assez anxiogène, reconnait Damien Garrouste, directeur du développement Data Science chez Lincoln,un cabinet spécialisé dans l’informatique décisionnel et l’analytics, et on peut identifier différentes phases de son développement. Toutefois, il est assez difficile de se proposer dans 5 ans tant la technologie évolue rapidement ».