« Je n’ai pas de problème de qualité de données ». « Nous gérons nos données via un ERP donc elles sont de qualité ». Qui n’a jamais entendu ce discours ? Les choses ont cependant bien changé depuis quelques années, avec l’arrivée du cloud et surtout du big data. Aujourd’hui, la qualité des données est un enjeu clé, notamment dans le secteur Banque Assurance où la réglementation Solvabilité II exige la gestion de la qualité des données.
D’après un sondage réalisé par PricewaterhouseCoopers (PwC) en 2011, « 90 % des entreprises jugent indispensable d’avoir une stratégie de qualité de données, mais seules 15 % l’adressent vraiment ». Pour quelle raison ? Bien souvent, les entreprises ne disposent pas de sponsors internes pour gérer cet aspect critique. L’objectif est cependant crucial : connaître la donnée, définir un dictionnaire de données interne et un vocabulaire commun à l’entreprise pour partager une vision cohérente de la donnée.
Une exigence réglementaire
Solvabilité II met l’accent sur la qualité des données et la gouvernance des données au travers d’exigences réglementaires très concrètes. C’est donc devenu un vrai sujet d’entreprise dans le secteur Banque Assurance, alors qu’il y a encore deux ou trois ans, la rentabilité et la pertinence de ces projets n’étaient pas prouvées. Chez un grand groupe du secteur Banque Assurance qui compte parmi mes clients, tout le monde adhère désormais à cette initiative car personne ne dispose d’indicateurs sur la qualité des données, ce qui rend compliqué l’utilisation de celles-ci et génère des écarts, parfois importants, entre les différents rapports produits.
Une autre organisation de taille plus modeste m’a indiqué qu’elle réalisait ses campagnes marketing « en aveugle » du fait de son absence de confiance dans les données utilisées. Les directions sont devenues très sensibles à ce sujet. Il y a une vraie maturité, d’autant que les ROI sont rapidement atteints. À la clé : gagner en confiance sur les données utilisées, les connaître pour in fine mieux les exploiter, gagner du temps et se consacrer à des tâches à plus forte valeur ajoutée, liées à son métier d’origine.
Quelle gouvernance pour quelles données ?
La gouvernance regroupe l’ensemble des règles et des procédures à suivre. Il s’avère nécessaire de mettre en place un comité de pilotage de la qualité des données impliquant les nombreux acteurs concernés : la direction générale, la DSI, la direction des risques et le contrôle de gestion… L’objectif est alors la constitution d’un groupe de travail opérationnel qui analysera les indicateurs de qualité, proposera et suivra des plans d’action visant à son amélioration, analysera pro-activement les impacts d’évolutions liées aux données (nouveaux produits, nouvelles applications de gestion…).
La gestion de la qualité des données induit de fait la « création » d’une nouvelle fonction dans les entreprises : celle de Data Manager. Véritable chef d’orchestre, le Data Manager assurera le suivi des indicateurs en place ou à créer, l’intégrité des référentiels, ainsi que le pilotage des actions d’amélioration pour en mesurer l’efficacité.
Si toutes les données de l’entreprise sont concernées, les données externes sont plus difficiles à maîtriser. Pour intégrer celles-ci, il sera nécessaire de mettre en œuvre un firewall qualité des données qui constitue un sas de mise en qualité des données (respect des normes qualité, gestion des rejets et mise en œuvre des actions manuelles de correction…) avant leur intégration dans les applications opérationnelles internes. Le portail de data stewardship (gouvernance des données) pourra aussi être mis à la disposition des partenaires fournisseurs de données afin de les responsabiliser et de leur fournir tous les outils pour garantir la qualité de leurs données.
De la nécessité d’impliquer les responsables métier
Pour mener un projet de gouvernance de qualité des données, différents sponsors internes seront indispensables. L’ensemble des directions sont mobilisées : direction générale, financière, marketing, direction des risques, contrôle interne, comptabilité… Très souvent encore, chaque direction gère ses propres données, qui ne sont donc ni partagées ni centralisées, ce qui n’est pas sans créer des écarts importants au niveau des chiffres. La compréhension transverse de la démarche permet de créer un référentiel de données fiabilisé et partagé par tous.
__________
Éric Gacia est directeur conseil Banque Assurance chez Micropole