Par Stéphane Cardot, Director Pre-Sales EMEA, Quantum

L’avenir de l’automobile soulève beaucoup de questions. Depuis plusieurs années déjà, constructeurs auto, fournisseurs de technologies et ingénieurs s’activent pour accélérer le développement du véhicule du futur, la voiture autonome. D’ici à 2050, les marchés des véhicules connectés, des véhicules autonomes et de l’assistance avancée au conducteur devraient se chiffrer en milliards de euros.

Le but ultime de ces évolutions technologiques automobiles est de mettre sur route des véhicules capables de conduire aussi bien, voire mieux que les humains, et d’offrir aux conducteurs la possibilité de profiter du trajet au lieu de se concentrer sur la conduite.

Pour atteindre un niveau de technologie optimal, suffisamment intelligent et sophistiqué, les entreprises arment leur flotte de véhicules de GPS, de LiDAR et de tout un tas de capteurs avancés, qui collectent chaque jour d’énormes quantités d’informations. Ces données sont ensuite traitées et analysées afin de développer des algorithmes de conduite élaborés, qui alimenteront le cerveau des voitures dde demain.

50 Pétaoctets de données par véhicule et par an !

La quantité de données actuellement collectée, protégée, analysée et stockée dans le secteur est bien supérieure à ce que la plupart des spécialistes avaient imaginé. Ainsi, en 2017, Intel prévoyait un taux de collecte moyen de 4 To par véhicule et par jour. Mais en 2019, ce volume a explosé, pour atteindre 20 To par heure, soit 50 Po par an ! Un volume de stockage qui fait tourner la tête.
Aujourd’hui, force est de constater que presque toutes les entreprises ont du mal à relever les défis liés à la gestion d’une telle quantité de données. Les infrastructures existantes débordent. Le problème ne se limite pas à la seule capacité de stockage. Ce serait presque trop simple. Non, les entreprises concernées ont besoin de systèmes performants, rapides, solides, mais aussi parfaitement sécurisés.

Bien entendu, la question du coût à engager pour s’offrir la solution idéale, adaptée à ses besoins, complique parfois la donne. La plupart des entreprises doublent ou triplent leur infrastructure existante. Mais finalement, cette approche peut rapidement devenir très coûteuse et trop lourde, en particulier lorsqu’il s’agit de la récupération de données issues d’un « stockage froid », soit rarement sollicité.

La règle dor pour une protection intelligente des données

À mesure que la taille et la complexité des unités de stockage grandissent, leur niveau de sécurisation doit, lui aussi, augmenter. Logique. Or les infrastructures informatiques complexes sont encore souvent constituées de structures cloisonnées, un point qui entrave l’efficacité de la gestion et de la sécurisation des données.

La clé pour une protection des données intelligente est pourtant simple. Elle consiste  à appliquer la règle classique « 3-2-1 » selon laquelle au moins trois copies des données doivent être stockées sur deux supports de stockage différents, et une copie conservée hors site. Même à l’ère des technologies mobiles et multi-cloud, la règle du «3-2-1» demeure le meilleur moyen de protéger ses données contre les défaillances matérielles, la corruption et la perte de données. Et avec le risque accru de cyberattaques de type ransomware, une copie devrait idéalement être stockée hors connexion.

Oui au stockage multi-niveaux automatisé

Les défis liés à la capacité de stockage, à la performance (rapidité d’accès aux données) et aux coûts de structure peuvent être résolus en adoptant une stratégie de gestion des données à plusieurs niveaux. La rapidité et la performance sont deux éléments majeurs pour obtenir un système informatique haute performance nécessaire par exemple pour mener une analyse fine des données qui serviront à alimenter l’intelligence artificielle. Mais une solution de stockage « de luxe » n’est absolument pas nécessaire pour de l’archivage, pour de la conservation de données à long terme. Ici, le stockage sur bande et sur un cloud public restent encore à date les meilleures options à envisager pour un rapport qualité/sécurité/flexibilité/prix imbattable.

Une stratégie de stockage multi-niveaux, qui assure donc un rapport temps, sécurité, performance et prix optimal – et ne présente aucun impact négatif sur l’expérience utilisateur, se traduit en définitive pour l’entreprise par une réduction des coûts non négligeable et un gain de productivité significatif.

Les solutions automatisées – communément appelées archives actives ou courantes – permettent aux utilisateurs finaux de localiser et de lancer leurs fichiers sans savoir où ils se trouvent physiquement, un point essentiel au bon développement des véhicules connectés et autonomes. Bref, tant que les données sont placées sur le support de stockage le plus approprié, les entreprises du secteur de l’automobile pourront allier gain de productivité et optimisation des coûts.

Afin d’être compétitif dans le secteur concurrentiel de la voiture autonome, les constructeurs automobiles et leurs partenaires doivent reconnaître dès aujourd’hui l’importance d’une gestion efficace des données. Les solutions intelligentes à plusieurs niveaux existent, et il y a fort à parier que seules les entreprises qui les auront rapidement adoptées, soit celles qui témoigneront d’une parfaite maîtrise de la gestion des données, parviendront à s’installer durablement dans un secteur en pleine ébullition.