Capitaliser sur le Big Data et l’analytique pour créer un réel avantage compétitif nécessite  une approche structurée et efficace pour collecter, nettoyer, mettre en corrélation et analyser l’ensemble de ces données. Découvrez les étapes clés de cette démarche pour garantir le succès de vos projets.

Identifiez et collectez les données importantes pour votre business

En amont de tout projet Big Data, il est indispensable de cibler les informations à collecter afin d’assurer un retour sur investissement notable. Investir dans des informations dont le coût de traitement serait plus élevé que leur valeur potentielle est en effet à éviter. Une fois ces données identifiées – données non structurées (issues des réseaux sociaux, de logs, ou encore de capteurs provenant de l’IoT) et structurées (provenant de systèmes transactionnels) – il faut les collecter !

Une approche innovante existe et permet, à partir d’une interface graphique, simple d’utilisation, d’intégrer les données de toute nature, de les transformer et de gérer leur qualité, nativement au sein des clusters Hadoop. En s’affranchissant de la complexité liée à la programmation sous Hadoop, le service informatique pourra répondre plus rapidement aux demandes métier, et de manière moins onéreuse.

Gérez la qualité des données

Comment s’assurer de la qualité du Big Data ?

Nettoyer des données lors de leur utilisation ou de leur stockage dans d’immenses référentiels n’est guère efficace. Il est donc préférable de réaliser cette étape en « live » : lorsque les transactions sont en cours de réalisation au sein des systèmes, que l’utilisateur clique sur « OK » sur votre site web, ou qu’un flux RSS vous signale un nouveau message sur un blog.

Mettre en corrélation des informations issues de différentes sources est également essentiel.
Par exemple, vous pourrez considérablement optimiser votre actions marketing en sachant que « mduval 1968 » qui a consulté votre site web est la même personne que « Marie Duval » qui a procédé à un paiement par carte bancaire par téléphone le mois dernier, et qui vient d’entrer dans votre boutique de Sydney en se présentant sous le nom de « Marie Duvalle ».

Créer un Data Quality Firewall peut vous aider à vous assurer de la qualité des données avant que celles-ci ne soient diffusées dans d’autres départements de votre entreprise. Ce pare-feu améliorera les processus métier, le reporting et optimisera la corrélation et la gestion de l’analyse des Big Data.

Analysez et diffusez l’information

Les utilisateurs métier cherchent aujourd’hui à s’affranchir de solutions complexes, souvent imposées par le département informatique et peu adaptées à leurs attentes quotidiennes.
Les outils d’analyse en self-service permettent aujourd’hui, à nombre de collaborateurs, d’explorer leurs données, de produire du contenu à forte valeur ajoutée, et de le partager dans l’ensemble de l’organisation, voire au-delà.

Cette agilité, dans l’accès et la manipulation des données, ne doit toutefois pas aller à l’encontre des règles de gouvernance de l’entreprise. Pour cette raison, il est primordial de disposer d’une plateforme ayant une sécurité et un référentiel uniques pour traiter l’ensemble de la chaîne de valeur de la donnée.

L’analyse en self-service, via un portail ou une application, ne doit pas s’affranchir de capacités de diffusion d’informations ciblées à un grand nombre de destinataires, quel que soit le support (smartphone, tablette, poste fixe), de manière planifiée ou actualisée en temps réel.

 

___________
Laurent Vincent est Responsable Solutions Business Analytics d’Information Builders