Les entreprises les plus performantes ont déjà fait évoluer leur architecture IT pour améliorer l’autonomie des analystes et l’agilité IT, tout en respectant les réglementations en matière de sécurité et de gouvernance. Pourtant, un certain nombre d’irréductibles « anarchistes des données » demeurent sceptiques quant à la pertinence du rôle croissant de la technologie en entreprise. Cette réticence persiste quand bien même les technologies comprenant les « données sur les données » ou métadonnées sont devenues de plus en plus importantes dans un monde marqué par l’importation de données d’énormes volumes de données non structurées et de schémas dynamiques. La technologie détient un rôle majeur en aidant les entreprises à extraire des informations utiles d’ensembles de données volumineux et variés.

La réponse n’est pas l’anarchie des données, mais la démocratie des données. Comment, alors, les entreprises peuvent-elles faire évoluer leur architecture IT pour assurer la démocratie des données ?  Dans cet article, nous proposons sept bonnes pratiques spécifiques qui ont abouti à des processus d’analyse décisionnelle plus performants sans l’anarchie des données.

1/ Automatiser l’importation de données avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances
Avec des plates-formes de données efficaces et évolutives telles que Hadoop, les données non préparées peuvent être ingérées à l’état brut, sans processus manuels et complexes. Le processus d’automatisation d’importation avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances permettent de gagner en agilité et en rapidité.

2/ Adapter les données aux différentes catégories d’analystes
Les nouvelles catégories de data scientists peuvent préférer obtenir très rapidement des données propres à 70 % contrairement aux utilisateurs de systèmes de BI classiques qui sont prêts à attendre des données propres à 100 %. Différentes catégories de données adaptées peuvent être fournies sur des plates-formes telles que Hadoop avec des outils de profilage et de validation des données rapides.

3/ Permettre aux utilisateurs de données d’intégrer facilement des données avec les leurs
La qualité des données ne doit plus être un processus purement IT. Après un nettoyage initial, il faut permettre aux utilisateurs de données techniques tels que les Data Scientists d’accéder directement aux données avec des outils d’intégration de données légers pour qu’ils puissent collaborer dans le processus de curation des données.

4/ Exécuter un processus de curation de données agile avec des fonctions de collaboration multi-utilisateurs et de prototypage rapide
La rapidité et le succès des projets Big Data sont toujours le fruit de la collaboration entre les parties prenantes et le département IT. Les outils multifacettes offrant des fonctions de prototypage rapide font de la curation de données un processus agile qui apporte rapidement de la valeur ajoutée.

5/ Surveiller la qualité des données au lieu d’en assurer la microgestion
La qualité des données ne doit pas être un processus fixe appliqué de la même façon à toutes les données. La surveillance et les alertes fondées sur des règles permettent au département IT de contrôler de manière flexible les processus liés aux données et d’assurer la visibilité de la qualité des différents types de données de manière collaborative.

6/ Permettre d’accéder aux données par le biais de la virtualisation ou du courtage
Avant de connaître la valeur des données, il n’est pas logique de les transférer à partir d’un système source. La virtualisation des données permet de fournir des vues rapides d’ensembles de données sans les transférer. Lorsque la valeur des données est connue, il est possible d’automatiser le transfert et la curation des données avec un courtier en données, qui intègre automatiquement les données dans une plate-forme centrale et permet aux utilisateurs d’y souscrire.

7/ Utiliser un catalogue de métadonnées universel alimenté par une solution d’analyse des données pour optimiser la rentabilité des données
Les nouvelles techniques d’apprentissage automatique et technologies graphiques peuvent être utilisées pour découvrir la structure, le sens et la valeur des données. Ces connaissances sont ensuite mises à la disposition des analystes et des informaticiens pour renforcer leur autonomie, tout en améliorant les processus de sécurité et de gouvernance.

Les avantages offerts par les architectures IT modernes permettent aux entreprises de fournir constamment les bonnes données au bon moment pour effectuer des analyses plus pertinentes et fiables. Ces pratiques constituent la base de la hiérarchisation des données. Les Chief Data Officers (directeurs de données) qui réussiront feront partis de ceux qui utiliseront des architectures IT évoluées pour développer une démocratie des données bien gouvernée et sécurisée.

________
Emmanuel Serrurier est directeur général France d’Informatica