Selon Capgemini, 2026 sera marqué par un besoin jusqu’ici sous-estimé de transformer les infrastructures informatiques pour l’ère de l’IA. Et cette réinvention de l’infrastructure est anticipée par tous les acteurs, y compris ceux du stockage. Et HPE s’inscrit dans la tendance avec ses baies Alletra et le nouveau nœud « Data Intelligence » dopé au GPU NVidia pour la baie Alletra MP X10000.
Introduire le prétraitement IA directement dans les baies de stockage est une idée qui fait son chemin. Il y a encore dix ans, les contrôleurs se concentraient essentiellement sur les fonctions « de base » que sont le RAID, le cache, la déduplication et la compression. Puis sont arrivées les premières briques d’analytique embarquée et de télémétrie temps réel, permettant d’optimiser automatiquement le placement des données, le tiering, la QoS et la maintenance prédictive. Avec le cloud, le flash massif et l’essor des architectures désagrégées, le mouvement s’est poursuivi via le « computational storage » et les DPU, qui rapprochent déjà certains traitements du plan de données. L’onde de choc de l’IA générative et du RAG remet aujourd’hui cette logique au premier plan : il ne s’agit plus seulement d’optimiser les I/O, mais de réaliser au plus près des données les premières étapes du pipeline d’IA – nettoyage, classification, extraction de features, génération d’index vectoriels, filtrage de sécurité. Autrement dit, les acteurs du stockage sont en train de progressivement transformer les baies de stockage en pré-processeurs d’IA au service du reste du SI.
Historiquement, la tendance a été initiée par des acteurs comme ScaleFlux, NGD et Samsung/Xilinx puis par Perifery et Huawei avant que VAST Data (avec InsightEnfgine) et NetApp (avec AFX et son moteur AIDE) n’inaugurent de nouvelles générations de baies devenues véritables plateformes de données pour l’IA et intégrant un véritable moteur de prétraitement IA dans la plateforme de stockage. On sent que Pure Storage veut aussi aller dans une direction similaire avec son approche Enterprise Data Cloud qui entérine cette idée que le stockage doit cesser d’être une étape passive pour devenir un acteur stratégique du cycle de vie des données.
HPE entre dans la danse du prétraitement IA dans la baie
C’est désormais au tour de HPE de s’engouffrer dans ce qui apparait comme le nouveau relai de croissance du stockage d’entreprise. Les nouveaux HPE Data Intelligence Nodes MP X10000, équipés de GPU Nvidia L40S, ne se contentent plus de stocker : ils analysent les données dès leur ingestion, extraient des métadonnées et génèrent des embeddings vectoriels utilisables par les modèles de langage et les agents IA.
Comme le résume Antonio Neri, PDG de HPE, « capitaliser sur la croissance des données non structurées avec notre propre propriété intellectuelle est l’une de nos cinq priorités stratégiques ».
Ces nœuds, intégrés aux baies Alletra, sont donc capables de prétraiter les données dès leur ingestion. Au moment où un objet est stocké, il peut être vérifié, enrichi de métadonnées, et transformé en embeddings vectoriels immédiatement exploitables par des moteurs analytiques comme Spark, Trino ou Starburst, qui n’ont plus besoin de passer par une étape lourde de préparation en amont.
Dans la gamme Alletra, le MP X10000 est la brique objet/all-flash, scale-out, exaoctet, orientée données non structurées et data protection, pilotée via GreenLake. Cette brique incorporait déjà un moteur logiciel de « data intelligence » pour enrichir les métadonnées au fil de l’eau. Techniquement, le nœud Data Intelligence MP X10000 vient ajouter une couche matérielle et logicielle dédiée au prétraitement IA : ce sont des nœuds tout-flash, intégrés dans la plateforme Alletra MP X10000 et équipés de GPU NVIDIA L40S. Ils sont basés sur la plateforme NVIDIA AI Data Platform / AI Enterprise et insérés directement dans le chemin d’IO de la baie. Il est important de comprendre qu’ici, ce nœud « Data Intelligence » n’est pas un serveur externe ProLiant adossé au stockage, mais bien un rôle spécifique et dédié au sein de l’architecture MP X10000, géré et supervisé via le même plan de contrôle GreenLake.
Vers une « usine IA clé en main »
HPE ne compte pas se limiter pas à une optimisation technique au sein des baies : l’entreprise construit également une offre « Private Cloud AI », présentée comme une « usine IA clé en main ». L’idée est de proposer aux entreprises un environnement complet où le stockage, le calcul et les outils de développement IA sont intégrés de bout en bout.
Les baies ne sont plus seulement des coffres-forts numériques, mais des plateformes actives qui alimentent directement les pipelines IA, réduisant la latence et les coûts liés au transfert et au retraitement des données.
En intégrant nativement le prétraitement IA, les baies HPE Alletra deviennent des passerelles vers l’inférence et l’analyse, et non plus de simples réservoirs.
Avec Alletra, HPE abandonne progressivement ses partenariats historiques avec des éditeurs tiers pour se concentrer sur son propre logiciel. Cette stratégie vise à renforcer sa rentabilité tout en consolidant son identité technologique. En parallèle, les succès de ClusterStor dans le monde des supercalculateurs montrent que HPE sait aussi jouer sur le terrain de la performance brute.
En intégrant le prétraitement IA, HPE espère capter une part du marché émergent de l’inférence, là où les besoins explosent et où le stockage peut s’imposer en maillon essentiel de la chaîne de valeur de l’intelligence artificielle.
Un partenariat HPE & Nvidia pour un Labo IA commun en France
HPE et NVIDIA annoncent l’ouverture prochaine d’un AI Factory Lab à Grenoble, un espace pensé pour permettre aux entreprises européennes de tester et valider leurs infrastructures d’intelligence artificielle dans un cadre souverain et sécurisé. Ce laboratoire, présenté comme une véritable fabrique de l’IA, associe les serveurs HPE, le stockage Alletra MP X10000, les solutions de réseau Juniper et les accélérateurs GPU Nvidia afin d’offrir un environnement complet, du calcul à la gestion des données.
« Chaque nation et entreprise doit posséder la production de son intelligence », explique Jensen Huang, fondateur et PDG de NVIDIA, en soulignant l’importance de maîtriser localement les outils de l’IA.
De son côté, Antonio Neri, PDG de HPE, ajoute : « Nous fournissons le socle des usines IA sécurisées, à toute échelle, avec des innovations qui offrent une plus grande diversité de performances. »
L’ouverture de ce laboratoire au deuxième trimestre 2026 marque une étape clé : le datacenter se transforme en usine IA, capable de traiter et valoriser les données directement sur place, tout en répondant aux exigences de conformité et de souveraineté propres au marché européen.





puis