Les expérimentations IA ont fait rêver, puis la facture est tombée : coûts qui fluctuent, bénéfices difficiles à prouver, CFO en mode contrôle. Pour tenir la promesse de l’IA, il faut plus de concret : gouvernance, observabilité et un ROI relié aux KPI métiers. Remettre de l’ordre dans le portefeuille et traquer le shadow AI, c’est souvent le chemin le plus court vers une IA rentable.

La promesse est séduisante, mais la période expérimentale touche à sa fin. La vague d’investissements dans l’IA de 2023-2024 s’est heurtée à la réalité budgétaire de 2025. Les organisations qui ont financé des initiatives d’IA, sur la base de promesses et de potentiel, sont aujourd’hui soumises à une pression pour démontrer leur rentabilité opérationnelle. Les directeurs financiers passent en revue les comptes et ont découvert que les estimations initiales des coûts des projets d’IA étaient erronées, les coûts récurrents s’avérant volatils et imprévisibles.

Le calcul du ROI qui justifiait l’investissement ne correspond plus à la réalité des coûts et des avantages. Sans oublier la pression de la concurrence : les organisations se sentent obligées de montrer qu’elles adoptent l’IA pour se positionner sur un marché, même lorsque l’argument commercial est faible. L’écart entre attentes et réalité est tel qu’il devient impossible de l’ignorer. Alors, comment démontrer le ROI des projets d’IA tout en assurant leur résilience ?

Recalibrer la confiance accordée aux systèmes d’IA

Alors que des milliards sont consacrés au développement des fonctionnalités de l’IA, il ne faut pas oublier de donner aux employés les moyens de juger de leur confiance dans l’IA.

En effet, parallèlement à la courbe d’adoption de l’IA, les recherches ont mis en lumière une tendance plus discrète : les humains ont du mal à calibrer leur confiance pour les systèmes automatisés. Et malheureusement, les conséquences s’aggravent avec le temps. Les études sur la collaboration entre l’homme et l’IA soulignent systématiquement qu’une confiance correctement calibrée permet d’éviter à la fois l’excès de confiance (qui conduit à la négligence) et le manque de confiance (qui limite l’utilité).

Cette question de confiance est devenue un enjeu critique de continuité d’activité. À trop faire confiance aux résultats de l’IA ou ignorer des informations fournies par l’IA, les organisations pourraient subir des défaillances ou prendre de mauvaises décisions.

Combler le fossé en matière de gouvernance de l’IA

La question de la confiance se pose pour le phénomène de shadow AI qui s’est considérablement accéléré ces dernières années. Ces comportements n’ont pas été motivés par une intention malveillante, mais avant tout par souci de productivité notamment avec l’utilisation d’outils non autorisés ou le partage de données confidentielles.

Or, l’exposition des données est cumulative et irréversible. Chaque commande saisie dans un outil d’IA non autorisé représente une fuite potentielle de données. Les informations sur les clients, les codes propriétaires, les projections financières, les plans stratégiques… potentiellement transférés vers des systèmes échappant au contrôle de l’organisation. Si certains modèles conservent les données saisies par les utilisateurs à des fins d’entraînement, d’autres stockent les données sur des serveurs situés dans des juridictions étrangères.

Il est urgent de combler cet écart entre les capacités de l’IA et sa gouvernance, afin de ne pas accroître les risques liés à cette technologie. D’autant que le cadre réglementaire se durcit. Les organisations sont confrontées à des exigences de conformité en matière de traitement des données, de gouvernance de l’IA et de gestion des risques qui imposent une visibilité sur l’utilisation de l’IA. Or, le shadow AI entrave ces efforts et le risque de responsabilité s’aggrave, puisque les organisations ne peuvent pas démontrer leur gouvernance sur des systèmes dont elles ignorent l’existence.

Faire face à la prolifération des modèles pour une meilleure opérationnalité

Récemment, le paysage des modèles d’IA s’est considérablement fragmenté. Un paradoxe a alors émergé : les organisations ont déployé des modèles spécialisés pour résoudre plus efficacement des problèmes spécifiques. La conséquence ? Un portefeuille ingérable qui sape les gains d’efficacité qu’elles recherchaient.

En effet, la complexité de la gestion augmente de manière non linéaire. Un modèle correspond à un projet. Dix modèles correspondent à un programme. Cinquante modèles constituent un cauchemar opérationnel sans infrastructure spécialement conçue à cet effet.

De plus, une gouvernance appliquée de manière incohérente à l’ensemble du portefeuille crée des lacunes en matière de conformité. Les résultats contradictoires issus de différents modèles analysant les mêmes données entravent eux la confiance dans les décisions. Les capacités de l’organisation en matière d’IA deviennent alors fragmentées et imprévisibles.

Cette fragmentation a également un impact sur l’observabilité des modèles d’IA et la gestion des coûts. Chaque modèle entraîne des coûts informatiques, des frais généraux de maintenance et une charge d’intégration. Sans une visibilité au niveau du portefeuille sur les dépenses en IA et la création de valeur, les organisations ne peuvent pas prendre de décisions d’investissement rationnelles.

Il est essentiel que les organisations s’attaquent désormais à ces défis, pour démontrer clairement le lien entre leurs investissements dans l’IA et leurs résultats opérationnels, à travers un impact mesurable sur les indicateurs métiers qui puissent faire face à l’examen minutieux des directeurs financiers.

En définitive, pour assurer la résilience de l’IA, les entreprises doivent gagner en visibilité sur le déploiement de la technologie en leur sein. Il n’est pas question de ralentir l’adoption de l’IA, mais d’investir dans une visibilité opérationnelle pour la rendre durable et rentable.
____________________________

Par Cory Minton, Global CTO chez Splunk

____________________________

À lire également :

Les nouvelles règles de la gestion des données : redéfinir leur valeur à l’ère de l’IA

Agents IA : la fin des silos dans votre environnement de travail ou l’automatisation créatrice de valeur

IA agentique : quand l’autonomie des machines redéfinit durablement le risque numérique

L’IA Frugale, choix nécessaire pour un avenir durable