La virtualisation engendre de nouveaux soucis parfois complexes à résoudre. C’est une des remarques du spécialiste du stockage, reconnu mondialement, auteur de nombreux ouvrages et articles qui était l’invité de l’éditeur Datacore, lors de son événement parisien.

Jon Toigo (photo) réalise depuis plus de 30 ans des tests sur le stockage pour différentes grandes entreprises. Invité à l’occasion de la réunion européenne de l’éditeur Datacore, comme speaker, il nous a fait partager quelques une de ses idées sur ce domaine.

Jon_Toigo

InformatiqueNews : Comment voyez vous l’évolution du stockage du coté des logiciels ?

JT : « La virtualisation est l’un des points essentiels, actuellement. Les bureaux d’études IDC et Gartner ont publié une étude l’an passé avec des chiffres assez proches, dans laquelle ils précisaient que 77% des données sauvegardées étaient préalablement virtualisées. Dans une autre étude portant sur l’adoption de la virtualisation, dans près de 600 grandes entreprises interrogées celles-ci ont révélé que dans 38 % des cas, elles exploitaient différents systèmes de virtualisation. Ainsi plusieurs types de fichiers virtualisés (Vmware, HyperV, KVM) pouvaient cohabiter sur les mêmes disques. On voit ainsi dans les entreprises des silos de données de tous types s’édifier, de toutes parts. Ces silos de stockage de fichiers virtualisés accentuent les besoins en volumes. Si on regarde dans le détail, les fichiers issus des systèmes Vmware prennent une place prépondérante. Le stockage dans le cloud accentue de la même manière les délais.

InformatiqueNews : Cela améliore-t-il les performances de serveurs ?

JT : « Mais pour améliorer les temps de réponse des applications et leurs accés aux données, mieux vaut avoir des systèmes non virtualisés, cela va plus vite. D’autre part avec les hyperviseurs, les risques de « plantage » augmentent. Bien sûr les serveurs sont mieux exploités, d’un point de vue rentabilité, mais dire que l’ensemble, finalement, va plus vite, c’est faux. Rajouter des conversions de différentes formes à la gestion des files d’attente n’a jamais amélioré les temps de réponse. Dans mon laboratoire, je vois bien que les applications fonctionnent plus vite lorsqu’elles sont seules qu’embarquées dans des machines virtuelles.

InformatiqueNews : Quelles sont les grandes évolutions techniques ?

JT : « Il n’y en a pas eu beaucoup, la plupart des fonctions que l’on nous présente comme des nouveautés existaient déjà dans les contrôleurs de disques. Elles ont étés reprises par les éditeurs de logiciels, mais certainement améliorées. La dépuplication, la compression, l’autotiering, le Thin provisionning existent depuis longtemps. Actuellement, on parle beaucoup d’une augmentation des volumes de données à stocker. Mais là aussi, la virtualisation augmente la taille des fichiers, sans compter les documents qui sont souvent conservés sous leurs formes originales. IDC en 2011 parlait d’une augmentation continue de 40% par an jusqu’en 2016. Mais depuis peu, IDC parle de mises à jour de cette étude liées au succés de la virtualisation et cela augmenterait les besoins en capacité de stockage de 300%. Pour ne pas être en reste, le Gartner parle désormais de 650% d’augmentation liée à la multiplication des machines virtuelles. Ce qui est sûr c’est que le stockage va croître encore et qu’il faudra le gérer dans le cloud ou chez soi et l’on rêve que cela soit à la demande.

InformatiqueNews : Comment percevez-vous l’évolution actuelle du matériel de stockage ?

Comme je l’ai déjà dit sur mon blog, dans le stockage, le disque dur reste un disque dur, les contrôleurs ne sont que des contrôleurs et les boîtiers ne peuvent donner plus que ce qu’ils contiennent. Tant que je peux associer un stockage fiable de grande capacité et profiter de la valeur-ajoutée des logiciels de gestion du stockage, cela me convient. La valeur ajoutée, c’est le provisionnement fin, la réplication, la mise en miroir, les snapshots, la protection continue des données, etc. et cela à travers une gamme évolutive de disques rotatifs et flash. Tout cela a du sens du point de vue de la protection des données sur site, si cela reste à un prix abordable.