Des baies “par appli”, des copies partout, et une gouvernance qui court derrière : le stockage en silos coûte cher et freine l’IA. La bascule stratégique consiste à traiter le stockage comme un service cloud interne, orchestré par logiciel. Voici pourquoi l’IA impose une modernisation de l’infrastructure de stockage.

Au fil du temps, la gestion des données a profondément évolué pour répondre à des exigences techniques et métier toujours plus variées et en constante évolution. Des bases relationnelles aux entrepôts de données, puis aux data lakes et lakehouses, les entreprises doivent aujourd’hui gérer des volumes structurés ou non, dans des formats multiples, hébergés sur site ou dans le cloud public, et accessibles via différents protocoles. Cette diversité a conduit à la coexistence de nombreux modèles de gestion destinés à servir l’ensemble des applications, métiers et utilisateurs.

Les réglementations strictes et les exigences accrues en matière de résilience, de sécurité et de gouvernance rendent l’exploitation des données plus complexe. Il faut les protéger, les analyser et les opérationnaliser tout en respectant les normes et règles internes de gouvernance. Parallèlement, l’intelligence artificielle amplifie ces défis : elle dépend de l’accès à toutes les formes de données tout en produisant de nouveaux ensembles qu’il faut comprendre, stocker et sécuriser.

Un stockage cloisonné : inefficace et coûteux

Comment le stockage de données s’adapte? Dans de nombreuses organisations, les baies de stockage sur site restent dédiées à des applications verticales et gérées indépendamment. Ce modèle, souvent hérité de contraintes techniques, crée une fragmentation des ressources et des silos de gestion. Résultat : une sous-utilisation coûteuse, des accès limités et une gouvernance difficile.

Pour être plus efficaces, les équipes de développement, data scientists et utilisateurs doivent copier fréquemment les données vers d’autres environnements. Ces duplications échappent au contrôle central, augmentent les risques de conformité et de cybersécurité, et multiplient les versions d’un même jeu de données. Lorsqu’une autre application souhaite accéder à ces informations, un processus lourd s’engage, entraînant surcharge opérationnelle et migrations de données.

Cette organisation engendre des données captives d’un côté, une prolifération ingouvernable de l’autre, des coûts de gestion accrus et une exposition plus large aux cybermenaces. Elle rend aussi plus difficile l’exploitation analytique et l’usage de l’IA.

Les hyperscalers comme modèle d’efficacité

À l’inverse, les hyperscalers du cloud public fonctionnent selon un modèle abstrait et mutualisé, où la capacité est répartie par niveaux de performance et pilotée par un plan de contrôle unifié. Ce fonctionnement simplifie la consommation des ressources et optimise leur utilisation à grande échelle.

L’enjeu pour les entreprises est d’adopter ce principe afin de passer de la gestion du stockage à une gestion globale de la donnée. Plutôt que d’administrer des systèmes isolés, il s’agit de piloter une flotte unifiée et intelligente, indépendante du matériel, pour comprendre et exploiter les ensembles de données de façon cohérente.

Virtualisé, géré par API, piloté par des règles

Le datacenter évolue vers un cloud de données virtualisé reposant sur des technologies de stockage avancées et des logiciels intelligents capables d’orchestrer les ressources selon un « modèle d’exploitation cloud ».
Un Cloud de données virtualisées requiert un plan de contrôle unifié offrant une gestion et une gouvernance autonomes et intelligentes des données, globales à tout le système d’information, indépendamment des déploiements sur site, dans le Cloud Public ou hybride.

Géré par API et piloté par des règles, ce modèle assure une utilisation en libre-service, une cohérence des opérations et une gouvernance simplifiée, indépendamment de la taille du système d’information, tout en supprimant les silos et la gestion manuelle des données.

Sur le plan matériel, la capacité et la performance doivent évoluer de manière dynamique et transparente, sans interruption de service ni migration de données inutile. L’infrastructure doit offrir des niveaux de performance et proposer différentes classes de service, de résilience, de sécurité, et de conformité, facilement consommables par les métiers et les applications. Les données peuvent être partagées, copiées ou déplacées automatiquement selon les besoins des usages modernes et des cas d’IA.

Comment répondre à ces défis?

Pour relever ces défis, une approche architecturale unifiée rassemble les fonctions clés du stockage afin d’offrir une expérience cohérente sur les environnements block, file et objet, avec des services tels que snapshots, réplication, haute disponibilité et protection contre les ransomwares.

Ces capacités s’appuient sur une base logicielle commune intégrant des outils d’analyse et d’optimisation à l’échelle de la flotte. Un plan de contrôle unifié gère différents pools de stockage pilotés par des règles : les ressources sont provisionnées selon les charges de travail et déplacées automatiquement entre classes compatibles. Cette approche place l’automatisation et les API au cœur de la gestion, limitant les interventions manuelles. Enfin, un modèle d’évolution continue, en mode service, permet d’ajouter ou de moderniser les systèmes sans interruption.

La voie à suivre

La consolidation de la gestion des données sur les environnements block, file et objet permet de surmonter les défis dûs à la fragmentation des données et les silos. Grâce à l’automatisation pilotée par règles, à l’intelligence intégrée et à une évolutivité sans faille, l’infrastructure de stockage devient une plateforme logicielle prête pour l’IA, assurant agilité, gouvernance et efficacité. En somme, il ne s’agit plus seulement de gérer du stockage, mais bien de gérer la donnée.
____________________________

Par Jonathan Bourhis, country manager France, Pure Storage

 

À lire également :

Stockage désagrégé : en finir avec les idées reçues à l’ère de l’IA…

L’IA de l’ombre à la lumière : comment le stockage façonne transparence et confiance durables ?

La clé de la scalabilité et de la fiabilité réside dans le stockage de données distribué

Pure Storage lance ses baies « FlashBlade//EXA » pour relever les défis du stockage IA

De l’IA au stockage externe : Nutanix accélère son ouverture technologique

HPE met l’IA au cœur du stockage : le prétraitement arrive dans les baies Alletra MP

NetApp lance son stockage désagrégé AFX conçu pour l’ère de l’IA