Quel était donc le dernier cri de la technologie il y a 15 ans, en l’an 2000 ? Intel produisait le premier processeur à 1 GHz, Sharp commercialisait le premier téléphone appareil photo et Seagate lançait le Cheetah X15, le premier disque dur au monde fonctionnant à 15 000 tr/min, le 23 février 2000.

Depuis lors, nous avons vu arriver 15 cœurs de processeur fréquencés à plusieurs gigahertz, des smartphones équipés de caméras de 35 mégapixels capables de filmer des vidéos en 4K UltraHD, sans parler de la naissance des réseaux sociaux (Facebook, Twitter et tous ces autres sites qui nous servent à gérer notre vie numérique ne sont apparus que quelques années plus tard).Or les disques durs continuent quant à eux de plafonner à 15 000 tr/min.

Cela fait une longue période d’absence de progression. Rappelons qu’en 2000, après tout, l’informatique « sans fil » concernait essentiellement la souris : le Wi-Fi n’est pas devenu courant avant 2003. Netflix révolutionnait le marché du divertissement en envoyant des films directement à domicile par la poste.

A l’époque, la grande bataille dans l’informatique mobile se livrait encore entre Palm et Casio.

Alors pourquoi une telle sclérose dans le domaine des disques durs ?

Toutes les technologies ne sont-elles pas censées se perfectionner en permanence ? En l’occurrence, il faut blâmer les lois de la physique, qui brident les disques durs. Ces derniers sont en effet des équipements mécaniques : les informations sont lues sur un plateau en rotation par une tête semblable à un saphir d’électrophone et opérant de la même manière, piste par piste.

Malheureusement, tout équipement mécanique a ses limites. Les composants tombent en panne ou s’usent, causant des interruptions inopinées et des casse-tête pour la maintenance. Les problèmes engendrés par les frottements, le couple et la résistance de l’air vont en s’amplifiant. En outre, le dépassement des 15 000 tr/min entraînerait également augmentation disproportionnée de la consommation d’énergie à l’heure où celle-ci est l’un des principaux problèmes auxquels sont confrontés les data centers. Une hausse de la consommation nécessiterait à son tour davantage de climatisation. En fait, si l’on y réfléchit, les disques durs et les climatiseurs sont deux équipements mécaniques critiques dans les data centers.

Ayant moi-même conçu des disques durs pendant de nombreuses années, je puis vous affirmer avec certitude que l’accélération de leur rotation n’est pas une solution. A mesure que la vitesse de rotation des plateaux s’accroît, la résistance de l’air et donc la consommation montent en flèche. Hélas, nonobstant ce surcroît d’énergie, le gain de performances est minime et, compte tenu du problème de la consommation des grands data centers, son augmentation est plus préjudiciable que l’amélioration des performances n’est bénéfique. Pire encore, l’accélération des disques durs nuit à leur fiabilité et pourrait même contraindre à une réduction de leur capacité !

Je ne suis pas le seul à avoir remarqué cet état de fait. Si vous consultez Jim Handy du cabinet Objective Analysis, qui a interrogé à ce sujet des ingénieurs travaillant sur les disques durs, celui-ci ne vous dira pas autre chose. En 2012, il écrivait : « J’ai posé la question à un certain nombre de concepteurs de disques durs et obtenu cette réponse très simple : trop gourmand en énergie. Pour toute augmentation de la vitesse d’un disque dur, la puissance consommée croît démesurément. Ces ingénieurs m’ont expliqué qu’un dépassement significatif du seuil actuel des 15 000 tr/min causerait des difficultés excessives de gestion de l’alimentation et pourrait même compromettre la durée de vie du disque dur. »

Sachant cela, il n’est pas difficile de comprendre pourquoi nous n’avons jamais vu de disque dur tourner à plus de 15 000 tr/min. Des rumeurs ont couru que Western Digital travaillait sur un modèle à 20 000 tr/min en 2008, mais ce projet ne s’est jamais concrétisé. Les fabricants ont amélioré les matériaux des plateaux et imaginé des solutions pour réduire les turbulences à l’intérieur des disques. Les canaux sont renforcés pour permettre le transfert d’un plus grand volume de données par seconde.

Pourtant, à un moment donné, c’est l’aspect pratique qui prend le dessus. Il faut bien accepter les limitations. (Dans le même ordre d’idée, les tentatives de commercialiser des minidisques mesurant moins d’un pouce de diamètre il y a une dizaine d’années ont fait long feu car les compromis nécessaires n’en valaient pas la peine.)

Qu’est-ce que cela implique pour les disques durs sur le long terme ?

Ce n’est pas de bon augure. Nous entrons dans une ère où l’accès aux données est absolument critique et où la construction de data centers et d’infrastructures informatiques, indispensables pour suivre le volume et la rythme de l’information, devient plus complexe chaque jour. Pensez donc : YouTube n’a pas vu le jour avant 2005, soit cinq ans après que les disques durs ont atteint leur vitesse limite. Or le site reçoit aujourd’hui environ 72 heures de contenu à la minute. Le concept de Big Data en est à ses balbutiements. L’information doit aller plus vite que les moteurs. La mémoire flash, qui offre une vitesse et un débit supérieurs en consommant beaucoup moins d’énergie, remédie déjà au problème dans les data centers hautes performances. Elle est appelée à se répandre sur le marché.

Les exploitants de data centers ont essayé de passer outre certains des inconvénients des disques en stockant les informations à la périphérie du plateau, plus facilement accessible, mais le besoin de vitesse finit toujours par ressortir. Ainsi, les colis qui étaient naguère transportés par voie maritime et ferroviaire le sont désormais par FedEx.

Les disques durs ne vont pas disparaître. Ils ont encore de beaux jours devant eux pour prendre en charge des tâches critiques dans le cadre de l’économie numérique. Simplement, ils ne constitueront pas la voie rapide.

 

_________
John Scaramuzzo est Senior Vice President et General Manager, Enterprise Storage Solutions, SanDisk Corp