L’IA ne manque pas d’ambition, elle manque surtout de données fiables, gouvernées et exploitables. Tant que les entreprises bricolent entre pilotes fragiles, shadow IT et résilience incomplète, la promesse reste en laboratoire. La valeur de l’IA se joue d’abord sur la solidité des fondations et non celle des modèles.
L’IA suscite un débat généralisé au sein des entreprises quant à son impact sur leurs activités. Or, le bruit médiatique considérable qui l’entoure crée parfois l’impression que cette technologie est déjà bien implantée. Si la plupart des organisations refusent de l’avouer, elles restent souvent bloquées à la phase expérimentale. Pourtant, la plupart des discours à ce sujet ne sont pas alignés avec la réalité opérationnelle. Les entreprises peinent à démontrer que l’IA crée de la valeur et manquent de confiance dans leur capacité d’innovation. Une réalité confirmée par une étude menée dans le cadre du projet NANDA du MIT, qui montre que 95 % des initiatives pilotes échouent ou n’ont que peu ou pas d’impact concret.
Accéder aux données, les gérer et les sécuriser dans un monde où l’intelligence artificielle prédomine peut sembler être une tâche colossale, accentuée par l’inadéquation des mesures censées favoriser la résilience. Ce contexte explique l’effet intimidant, voire paralysant, suscité par la quantité, la complexité et le caractère sensible des données dont l’IA a besoin. Investir dans la transparence et la résilience dès le départ demeure le seul moyen d’avancer en toute confiance, tandis qu’une gouvernance rigoureuse des données constitue un atout essentiel. Faute de quoi le seul choix qui s’offrira aux organisations sera de parler de l’IA plutôt que de la mettre en œuvre concrètement dans leurs processus.
L’IA entre promesses et réalités
Les données constituent le socle fondamental de tous les outils d’IA : l’intelligence artificielle générative, les grands modèles de langage, la détection des anomalies et les modèles prédictifs sont tous construits et entraînés à partir d’informations, tout en générant aussi de nouvelles ressources. Cependant, alors que les débats se concentrent principalement sur le potentiel transformatif de l’IA, il est vite possible d’oublier le rôle central des données. C’est l’une des raisons pour lesquelles le volume d’informations générées, collectées, dupliquées et consommées cette année devrait atteindre 181 zettaoctets, soit trois fois plus qu’en 2019. De tels volumes restent difficiles à concevoir et démontrent que les informations existantes dépassent largement les capacités de gestion que les organisations maîtrisaient auparavant.
Selon le cabinet Gartner, 80% des informations organisationnelles sont encore non structurées. Antérieurement, cette situation impliquait que la majorité restait inutilisée, exigeant un archivage et une sécurisation qui ne permettaient pas l’extraction de valeur. L’IA a bouleversé cette situation en impactant les volumes d’informations que les organisations peuvent désormais véritablement exploiter…
Cette accélération technologique s’accompagne d’une explosion des données générées. Les entreprises qui se lancent dans l’IA sont confrontées à une problématique majeure, celle de démêler et structurer les quantités massives de données, pour les catégoriser de la bonne façon. Implémenter un programme pilote d’IA dans ces conditions explique pourquoi de nombreux projets sont condamnés à échouer.
De plus, si les entreprises affirment vouloir une gouvernance IA impeccable, la réalité du « shadow IT » les rattrape. Confrontées à l’effondrement des projets pilotes, les équipes se tournent vers des solutions IA en marge de la politique officielle. Ce contournement ne fera que s’aggraver, tant que les organisations ne résolvent pas leur crise de gouvernance des données et ne libèrent pas le potentiel innovant de l’IA.
Construire des fondations robustes
Si l’arrivée de l’IA est présentée comme l’aube d’une époque révolutionnaire, cette transformation doit pourtant s’enraciner dans l’héritage technologique. Maintenir l’intégrité des données et consolider les mécanismes de résilience existants restent essentiels.
En cas de défaillance, l’incapacité à identifier les données fiables compromet la reprise d’activité et empêche de restaurer le bon fonctionnement du système. Ce risque important impose aux entreprises de maîtriser l’ensemble de leurs données. Pour y parvenir, elles doivent d’abord classifier le flot important d’informations en distinguant celles qui sont vitales pour leurs opérations. Des évaluations d’impact régulières et systématiques sur l’ensemble du patrimoine deviennent alors une obligation stratégique pour assurer la résilience.
Cette approche nécessite d’être continue et non isolée. L’afflux de données étant inépuisable, les organisations doivent exercer un contrôle permanent sur l’intégralité de leur volume informatique. Pour éviter une saturation, elles doivent s’appuyer durablement sur des pratiques structurantes comme la standardisation et la validation des données, complétées par des évaluations d’impact systématiques.
Dans les faits, la plupart des entreprises auraient déjà dû agir. Plutôt que d’introduire des méthodes entièrement novatrices pour débloquer le potentiel de l’IA, il faut renforcer et développer ce qui existe déjà. Construire une base solide doit être une priorité absolue, surtout que l’IA peut y contribuer. Elle permet de simplifier le tri des données, d’assurer une meilleure traçabilité et de sécuriser la résilience des organisations. Les premiers projets d’IA devraient logiquement cibler les données elles-mêmes. Dès lors que les entreprises exploitent l’IA pour bonifier leurs données, ces dernières peuvent à leur tour perfectionner les systèmes d’intelligence artificielle.
Les programmes pilotes réussissent et l’innovation par l’IA devient réelle quand les organisations disposent de la confiance nécessaire. Cette confiance, tout comme des bases solides, dépend du contrôle qu’elles exercent sur leurs données. C’est pourquoi il est essentiel que les organisations gardent le contrôle de leurs informations.
Une montée en puissance maîtrisée
Une règle fondamentale, qui peut sembler triviale, est de débuter par des projets à petite échelle. Les entreprises ne doivent pas nécessairement être à l’origine de la prochaine transformation technologique majeure ; elles doivent uniquement prouver leur capacité à innover, à générer de la valeur et à maintenir leur contrôle opérationnel. Plutôt que de concevoir une solution entièrement nouvelle, débuter par un projet d’IA gérable, créateur de valeur, sécurisé et aux résultats vérifiables suffit. Cela renforce la confiance et prouve à l’organisation que l’innovation par l’IA est envisageable, ouvrant la voie à des applications plus ambitieuses et transformatrices.
Si les coûts de création, de performance et de résilience du modèle d’IA ne sont pas alignés, les processus mettront en péril la résilience de l’organisation. Pour éviter ce risque, il est indispensable de pouvoir expliquer le processus à chaque étape. Si ce n’est pas possible, il faut pouvoir revenir à l’étape précédente. C’est pourquoi revenir constamment aux fondamentaux est essentiel tout au long de la démarche.
Amorcer une démarche avec de petits projets est fondamental pour vaincre l’appréhension de l’échec qui immobilise tant d’organisations, les empêchant d’optimiser leur capital informatique et de mobiliser l’IA pour générer une création de valeur métier authentique et disruptive. Cependant, il ne faut pas se départir d’une certaine appréhension tout au long du processus, afin de maintenir l’équilibre critique entre contrôle opérationnel et innovation, garantissant la pérennité organisationnelle. Ainsi, les entités pourront transcender le discours théorique sur le potentiel de l’IA pour en matérialiser concrètement les retombées.
____________________________
Par Rick Vanover, Vice President of Product Strategy chez Veeam Software
____________________________





puis