Le dernier « Big Data Index » publié par IDC et EMC révèle que 70% des données présentes dans l’entreprise ne sont pas utilisées. Une autre étude, publiée plus tôt cette année par les mêmes acteurs, indique que les données mondiales continuent d’augmenter de 40% par an et seraient sur le point de passer de 4.4 zettaoctets (1021) en 2013 à 44 zettaoctets en 2020. Dans ce contexte, les entreprises sont confrontées à de nouvelles problématiques liées à la sauvegarde des données, notamment en termes d’espace de stockage, de performance et de productivité.

La croissance continue des données pousse les organisations à s’interroger sur la meilleure manière de les sauvegarder, sur la pertinence d’en conserver l’ensemble ou une partie seulement, ainsi que sur l’optimisation de la gestion de ces informations. Sans la mise en place d’une stratégie de stockage adaptée, elles risquent de voir leur productivité sérieusement impactée.

L’ensemble des études conduites ces dernières années aboutissent au même constat : les données ne cessent d’augmenter, ce qui pousse les entreprises à envisager de nouvelles manières de gérer ces quantités massives, leurs méthodes traditionnelles de sauvegarde n’étant plus adéquates. La plupart des organisations sont en effet tentées de conserver le maximum de données, en conformité avec les règles internes de hiérarchisation de données, mais également sous prétexte que la sauvegarde est abordable.

En outre, le volume est également augmenté par la multiplication des points d’enregistrements – duplications dans divers fichiers à partir de pièces-jointes d’emails, de clés USB ou de terminaux mobiles – qui conduisent les entreprises à stocker inutilement un grand nombre de données. De tels volumes de données, bien que souvent inexploités, engendrent au contraire des dépenses importantes liées d’une part à l’achat d’espace de stockage supplémentaire, et d’autre part à des besoins de gestion des données en termes de hiérarchisation, d’analyse et de sécurité.

Pour pallier cette problématique, il est essentiel que les organisations repensent, dans un premier temps, la manière dont elles hiérarchisent et conservent leurs données. Une visibilité d’ensemble sur leur réseau est en effet indispensable pour faciliter la gestion des volumes de données croissants et surmonter les problèmes de bande passante, de distance et de pertes de paquets susceptibles d’affecter leur performance et leur productivité au quotidien. Afin de répondre à ce besoin, la virtualisation et les offres basées dans le cloud permettent d’améliorer la sauvegarde, la gestion et le transfert des données à moindre coût entre data centers proches ou distants, notamment via une cartographie du réseau et une optimisation du WAN.

Avant de s’engager dans l’analyse des données, les entreprises ont donc besoin de réorganiser leur manière de les hiérarchiser et de les conserver notamment pour éviter des coûts de gestion qui sont voués à augmenter en corrélation avec le volume de données. Une fois le processus mis en place, elles seront en mesure d’en faire l’analyse la plus détaillée et complète afin d’en tirer le meilleur parti.

 

————–
Eric Leblanc est Directeur Régional EMEA Sud et Ouest chez Silver Peak