Alors qu’il apparaît de plus en plus évident que les entreprises vont devoir profondément repenser leurs infrastructures de stockage pour l’ère de l’IA, de nouveaux défis émergent sans pour autant effacer ceux qui persistent comme l’explosion des volumes, la suppression des silos, la souplesse d’administration, les tensions sur les composants matériels, les budgets sous pression, les cybermenaces, etc. Alors que les DSI ont ajouté à leur agenda l’industrialisation de l’IA générative et agentique ainsi que la géopolitique, Guillaume de Landtsheer, directeur général de NetApp France, est l’invité de Guy Hervier pour nous apporter son éclairage.
Maîtriser les coûts IT, opérationnaliser l’IA sur des données de qualité et renforcer la résilience et l’autonomie face aux cybermenaces et aux secousses géopolitiques… Ces sujets sont brûlants en 2026. Pour étendre les perspectives et éclairer les lanternes, Guy Hervier invite cette semaine sur le plateau de son émission « L’invité de la semaine », Guillaume de Landtsheer, DG de NetApp France, pour partager sa une vision à la fois très opérationnelle et résolument stratégique de la nécessaire modernisation du stockage.
Alors que les prix des composants mémoire, d’alimentation et de refroidissement repartent à la hausse et que les délais de livraison s’allongent, nombre de projets doivent être arbitrés, optimisés, voire reportés. Guillaume de Landtsheer revient d’abord sur cette réalité très concrète : comment continuer à délivrer de la puissance et de la capacité alors que les coûts grimpent plus vite que les budgets ? « On assiste à une raréfaction des composants qui entraîne mécaniquement une hausse des prix. Tous les acteurs, dont NetApp, ont été obligés d’augmenter leurs tarifs » regrette notre invité. Il explique comment NetApp mise sur la consolidation des infrastructures, la hiérarchisation entre données « chaudes » et « froides », le nettoyage de données peu ou jamais réutilisées, mais aussi sur des mécanismes contractuels plus souples pour aider les DSI à retrouver des marges de manœuvre. Au passage, il rappelle que « en 2020 on parlait d’environ 20 zettaoctets de données, en 2025 on sera autour de 175, et en 2030 on atteindra les 1 000 zettaoctets. Or près de 68 % des données stockées ne sont quasiment jamais réutilisées : il y a un vrai sujet de nettoyage et de purge. »
Cet entretien s’inscrit aussi dans l’actualité chaude de NetApp, qui vient de franchir une nouvelle étape dans sa stratégie IA avec AFX, une plateforme de stockage all-flash désagrégée taillée pour les workloads d’IA à grande échelle, et AI Data Engine, une couche logicielle intégrée à ONTAP qui prépare, gouverne et optimise les données pour les pipelines d’IA et les scénarios RAG. « Avec AFX, on apporte la puissance nécessaire aux workloads d’IA, et avec AI Data Engine on prépare et gouverne les données. On ne parle plus seulement de stockage, on parle désormais de data platform au service de l’IA » explique Guillaume de Landtsheer. Il détaille comment cette « data platform » entend redonner ses lettres de noblesse à l’infrastructure, en montrant que sans données bien préparées, classifiées et vectorisées, même les meilleurs modèles d’IA restent aveugles. Il illustre ces enjeux avec des cas très concrets : collecte scientifique massive (IFREMER), sport automobile ultra-connecté (Porsche, Aston Martin, Ducati) ou encore environnements militaires sensibles.
Autre grand volet de la discussion, Keystone 3.0 est l’offre de stockage as-a-service de NetApp. Dans un contexte où les DSI cherchent à aligner dépenses IT et usage réel, Guillaume de Landtsheer explique comment ce modèle par abonnement permet de lisser les investissements, de faire évoluer à la baisse la capacité engagée au fil des projets, et de rapprocher la consommation de stockage des modèles cloud tout en restant on-prem ou en hybride. « Avec Keystone, un client peut consommer une capacité à un instant T, puis réduire sa volumétrie et sa consommation au fil du contrat. Nous sommes les seuls sur le marché à offrir une telle flexibilité à la baisse » ajoute notre invité. Il revient sur des cas clients – notamment dans l’automobile – où cette élasticité, y compris à la baisse, devient un levier clé pour piloter transformations cloud et projets de migration sans « gâchis » d’infrastructure.
Enfin, l’entretien aborde deux obsessions majeures des DSI : la cybersécurité et la souveraineté.
Côté sécurité, NetApp met en avant une défense en profondeur autour du stockage : réplication multi-sites, règle 3-2-1, snapshots immuables, détection comportementale des attaques par IA (ARP.AI) et capacités de « clean restore » pour repartir de copies saines après ransomware. « La sécurité informatique, c’est une chaîne de filtres. Quand tous ces filtres ont été franchis, on arrive sur les données. Là, le stockage devient un contributeur majeur avec la réplication multi-sites, la règle du 3-2-1, les copies immuables et désormais l’IA qui détecte des comportements anormaux. »
Côté souveraineté, Guillaume de Landtsheer défend la notion de « trusted vendor »: transparence financière et de chaîne de valeur, certifications de sécurité, rôle des clouds SecNumCloud, mais surtout capacité pour les DSI à rester agiles, à containeriser et à éviter les enfermements technologiques pour pouvoir, si besoin, changer de fournisseur.
Et le DG de NetApp de finir sur quelques conseils : « Je donnerais trois conseils à un DSI : identifier de vrais acteurs de confiance, préserver au maximum son agilité pour pouvoir changer de technologie, et anticiper ses besoins à 12, 24, 36 mois dans un contexte de tensions sur les prix et les délais. »





puis