Ce que promettait le film Minority Report est devenu accessible à (presque) tous : prédire l’avenir en cinq étapes. Utilisé aussi bien dans la lutte contre la criminalité que dans les secteurs industriels, l’exploitation du big data permet non seulement de prédire le futur, mais permet d’une certaine manière de le modifier.

Logiquement incontournables dans le marketing, les solutions de prédiction s’appliquent aujourd’hui également à tous les domaines d’activité. Dans l’industrie, elles permettent d’anticiper les pannes afin de les rendre moins brutales, d’accélérer les interventions, de réduire l’immobilisation de la chaîne de production. Autant d’actions qui allongent considérablement la durée de vie des équipements. Les professionnels de la santé l’utilisent pour mettre en place des thérapies plus efficientes et une ville comme Los Angeles a réussi à réduire significativement son taux de criminalité en concentrant ses patrouilles policières dans les zones statistiquement les plus sujettes aux délits.

En bâtissant et en appliquant des paradigmes prédictifs fondés sur des centaines de variables, le big data donne naissance à un ensemble de valeurs prédictives en temps réel. L’analytics est la partie émergée de l’iceberg « big data ». Pour cela, cinq étapes sont incontournables.

  1. Faire parler les données

Les technologies open source ont repensé la façon de récolter des données en utilisant des commodités matérielles et logiciel pour la rendre plus efficace. Le big data était né et, avec lui, le fast data – l’analyse à grande vitesse de gros volumes d’informations sur une grande diversité de types de données.

Sous cette analyse massive se cache en réalité des outils qui exploitent, rendent visible et intelligible (voire intelligente) la masse des données récoltées : on se situe désormais dans l’ère des usages, où la valeur des données est révélée.

  1. L’exactitude de l’information

La qualité des données est une problématique au cœur de la data-science. Plus de 80% du temps d’un projet lié au big data est dédié aux tâches relatives à la qualité des données. Il faut adapter les structures existantes, détecter les incohérences, corriger ou supprimer les données erronées sans perdre l’information pour obtenir un résultat le plus exact possible.

  1. La pertinence des algorithmes

Aujourd’hui, il existe des centaines d’algorithmes destinés à faire parler la data : il s’agit pour les data scientists de sélectionner les plus pertinents parmi plus de 700 et de les combiner. Cette étape, délicate, est un vrai défi : elle relève de la science mais aussi de l’art. Pour avoir le plus d’impacts, les algorithmes doivent être adaptés à une problématique précise, expérimentés, puis doivent être transposés à l’échelle.

  1. « Un croquis vaut mieux qu’un long discours »

Face à des flux de données massifs et continus, la visualisation devient nécessaire pour amplifier la compréhension des données analysées. La Dataviz est devenue indissociable du prédictif : la valeur ajoutée que la représentation graphique des données apporte à l’analyse, est d’autant plus incontournable que le big data rassemble des données à la fois nombreuses, variées et souvent inintelligibles. La visualisation offre ainsi la possibilité d’appréhender un message complexe fondé sur des données très volumineuses en un coup d’œil.

  1. De la prédiction à la prescription

Ces étapes apportent l’intelligence nécessaire aux données pour modéliser une analyse pertinente et prédire les valeurs futures de données cibles. Suite logique de l’analyse prédictive, la data permet d’infléchir le futur par l’analyse prescriptive : outil d’aide à la décision au service des usages du big data.

Si le big data devait être représenté, il serait un iceberg : une masse immergée de données, extrêmement massives, invisibles car nombreuses et diverses, traitées pour être visibles, intelligibles et exploitables pour prédire l’avenir. Un outil incontournable pour prendre des décisions importantes.

____________
Nicolas Marchand est directeur big data de Scalian