Le spécialiste du stockage veut administrer le stockage hétérogène et intégrer les offres du cloud
Amitabh Srivastava, directeur de la division logiciels d’EMC et ex-responsable des développements Azure chez Microsoft, a officiellement annoncé à Paris, le 19 Novembre, son projet Nile, un boîtier et une sorte de passerelle ouverte vers le stockage en ligne. Lors d’une journée principalement consacrée à la virtualisation du stockage et au difficile passage du monde du client serveur à celui du cloud, il rappelait les trois enjeux actuels d’EMC : le Big data, le stockage et la sécurité.
En outre, il soulignait l’importance de la vitesse d’analyse et d’exécution dans la gestion de grands volumes de données. Pour étayer son propos, il rappelait l’évolution incroyable du secteur : « On a attendu 2005 pour obtenir notre premier exa-octet (1 milliard de giga-octets) puis pour la première fois en 2010 on est arrivé à traiter un exaoctet en moins d’un an. Depuis 2011 on dépasse l’exaoctet par trimestre et en ce moment on passe à l’exaoctet par mois ». Ces chiffres incitent à la réflexion sur ce que pourrait être la gestion des données dans dix ans.
Nile :Un sorte de dropbox d’entreprise très sécurisée Le lancement prévu pour le début de l’été prochain du projet Nile, un boîtier rendra l’utilisation du cloud public plus rassurante. En effet, si l’on parle beaucoup de cloud, il ne s’agit en France, dans plus de 65 % des cas, que de Cloud Privé. Avec le boîtier de stockage Nile, comme on peut déjà le faire dans des usages privés déjà avec Dropbox et ses partenaires « hardware » , on disposera d’un espace de stockage non plus en ligne mais bien réel dans son propre réseau local. Il sera apte à dupliquer l’offre de Cloud public si nécessaire. Outre le fait de savoir que l’on peut toujours revenir sur « du réel », l’intérêt de Nile est de s’ouvrir et de disposer des formats blocs ou des formats objets au-delà des simples fichiers que l’on trouve sur les systèmes de stockage en ligne grand public. L’interface sera très facile à gérer, selon Sébastien Verger, le responsable des ventes. Elle permettra de choisir son environnement de stockage (objets, fichiers ou blocs) et les volumes nécessaires en fonction de ce que l’on souhaite échanger ou pas avec le cloud. L’interface reprendrait en gros celle du programme syncplicity, le programme racheté en mai 2012 par EMC et qui ressemble par ses fonctions à Dropbox. Le boîtier Nile permettra d’intégrer facilement des taches virtualisées disponibles sur Amazon S3, Azure ou n’importe quel service dans le cloud. Interrogé sur le fait qu’EMC dispose déjà de tous les modules logiciels qu’il faut pour proposer Nile sans délais, Sébastien Verger précisait : « C’est vrai, mais on se doit de tester les systèmes dans les pires conditions et d’optimiser les logiciels pour les rendre infaillibles. Ce que nos clients sont prêts à endurer avec les produits d’une Start up serait incongru avec des systèmes EMC, il en va de notre image. La commercialisation qui pourrait éventuellement s’effectuer via des intégrateurs ou des hébergeurs mérite, elle aussi, une analyse approfondie». Dans la logique de ViPR En mai dernier déjà, EMC avait introduit à Las Vegas son projet ViPR, un logiciel qui réunit dans un seul ensemble de stockage virtuel, l’ensemble des systèmes de stockage disponibles, qu’ils soient physiquement présents ou distants. « De la même manière que le programme d’administration de Vmware permet de partitionner les serveurs en différentes machines virtuelles, ViPR donne aux administrateurs la possibilité de répartir leurs ressources dans différentes structures et de les administrer uniquement par des commandes simplifiées des “Policy”. » Pour faire court, on pourrait présenter cette offre comme un outil d’administration de machines virtuelles en cluster fonctionnant sous Vsphere (Vmware) et exploitant un protocole de communication entre les différents systèmes devenus un pool de stockage. Pour Amitabh Srivastava, l’outil ViPR semble être devenu un cheval de Troie pour s’infiltrer dans les systèmes de stockages de ses concurrents. Pour optimiser la gestion des données, ViPR dispose désormais d’interface API Rest et peut s’interfacer avec les API de l’offre Amazon S3 et plusieurs autres fournisseurs de services cloud. Pour faire la différence, EMC met en avant la simplification pour la gestion du provisionning de blocs dans des environnements hétérogènes. « On peut provisionner nos blocs Vmax, VNX, VPLex en moins de 5 clics. Pour les fichiers sur Net App , on passe de 24 clics à 5 et l’on va essayer de simplifier aussi les accès sur les SVC d’IBM ; sur les HDS ; les IBM Array et les 3Par ( HP). On essaye d’administrer les systèmes de stockage comme un système unique, comme une commodité , un self service . Le système qui fonctionne avec Vsphere s’interface aussi à VCloud et le VCenter Operation Manager » insistait le responsable des logiciels d’EMC. Pour ceux qui avaient oublié que Vmware était une filiale d’EMC, ces précisions méritaient le détour.
Du coté des baies plus classiques
Si la firme dispose de quatre gammes de produits capables de supporter de charges croissantes, les Atmos, Isilon, VNX et VMAX, EMC a surtout amélioré ses baies de milieu de gamme, les VNX (5200, 5400, 5600, 5800, 7600 et 8000) en les dopant à l’aide de processeurs Xeon multicoeur, et en particulier le 5600. EMC annonce 1,1 millions d’IOPS avec 32 cœurs, la bande passante pouvant atteindre le 30 Mbits/s. Ces modèles, rappelons le aussi, étaient à leurs lancements, il y a déjà deux ans déjà, les remplaçantes des baies Clariion CX4 et Celerra NS, une période faste durant laquelle Dell était encore un partenaire. « Mais en rachetant Compellent, précise Sébastien verger, notre concurrent direct, ils se sont placés hors jeux. Il y a toujours avec Cisco et d’autres une coopétition avec Dell et HP, là on est clairement concurrents ». Dans le haut de gamme EMC a rappelé ses nouvelles baies à base de flash, Xtreme IO dont on peut se demander ce qu’elles apportent réellement, toutes les baies EMC disposant aussi de caches et de SSD pour doper leurs performances. Rappelons que les temps de recherche sur un SSD est d’environ 200 millionièmes de seconde contre 10 millisecondes pour un excellent disque SATA, 4 ms pour un SAS. Du coté requêtes, le nombre d’entrées/sorties par seconde) d’un SSD serait de 10 à 20 fois meilleur. Seul le débit continu ( pour un film par exemple) donne aux disques magnétiques un atout indéniable. Les baies SSD ont leur cartes à jouer » Notre baie Xtreme IO n’est pas simplement une accumulation de SSD comme on peut les imaginer avec un JBOD (Just a bunch of Disk) ni un produit issu d’une Start up inconnue. Là, on propose une baie très évoluée avec une technologie dérivée du raid et dotée d’un système de data placement pour optimiser les déplacements des blocs. Le système dispose d’une connectique Infiniband avec une fabric pour optimiser les transferts. C’est vraiment un système dit de scale-out pour optimiser les tâches sur les serveurs », précisait l’un des spécialistes de la firme. Nous aurons l’occasion de revenir sur les offres de baies SSD d’EMC , une nouvelle série de produits de ce type étant prévue lors de HP Universe et Dell World, début Décembre.