HP est en train de développer un ordinateur d’un nouveau type doté d’un nouveau système d’exploitation adapté au traitement du big data et réduisant drastiquement la consommation électrique.

Les ordinateurs passent, les architectures restent, tel est le message que Martin Fink, Directeur des HP Labs essayait de faire passer en présentant pour la première fois les travaux d’HP sur cette prochaine génération d’ordinateur. Du mainframe à la tablette, l’architecture est la même : un processeur relié par des fils en cuivre à une hiérarchie de mémoire sélectionnée en fonction de leur rapidité et de leur capacité. Et donc de leur prix. C’est sur ce ratio cout/performance que sont construits les mêmes des ordinateurs depuis toujours. Et selon lui, on a recréé la même architecture au niveau du logiciel avec la virtualisation.

9 HP 5

Selon Mark Fink, la dernière innovation comparable à ce nouvel ordinateur remonte au milieu des années 80 avec le projet Spectrum basé sur l’architecture Risc (Reduced Instruction Set Computer ou ordinateur à jeu d’instruction réduit) et avec l’annonce des HP 3000 modèles 930 et 950. A l’époque HP avait fait figure de pionnier et a été suivi par d’autres constructeurs notamment Digital, Sun et IBM. Pour la petite histoire, Mark Fink raconte qu’il est entré chez HP en 1985 et qu’il a installé en clientèle les premiers serveurs Risc.

9 HP 4

« Nous l’avons appelé The Machine, explique-t-il avec une pointe d’humour, car les HP Labs n’ont pas de département marketing ». Basiquement, l’architecture de ce nouvel ordinateur est organisée sur d’un côté des processeurs spécialisée et de l’autres un pool de mémoire baptisée mémoire universelle connectés par une bus ultra rapide basé sur ces composants de type photonics. Cette architecture sera particulièrement adaptée pour traiter de très grands volumes de données – ce que l’on appelle couramment big data et dont le qualificatif big ne fait qu’augmenter année après année – avec une consommation électrique largement réduite. La maquette présentée lors de la conférence Discover peut évoluer de manière homothétique, de la carte jusqu’au data center, en gardant les mêmes propriétés. Les processeurs sont spécialisés pour les tâches qu’ils ont à accomplir entraînent une optimisation de la consommation d’énergie. Selon Mark Fink, les serveurs MoonShot constituent la première instanciation de cette évolution.

La seconde partie essentielle est l’utilisation de composants de type photonics dont le principe est l’utilisation de la lumière pour transmettre les données au lieu du courant électrique. Chaque octet des 160 Po de mémoire de 160 racks peut être adressé en moins de 250 ns et se comporte ainsi comme un seul et même système.

Le troisième élément concerne la mémoire affublée du qualificatif universelle pour l’occasion. Cette mémoire universelle est construite à partir de composants appelés memristor. C’est en 2008 qu’HP a commencé à communiquer sur cette technologie des Memristors qui  avait été mise en évidence en 1971 par Leon Chua, un ingénieur électronicien de l’université de Berkeley. En avril 2010, HP avait publié un article dans le magazine Nature (Les Memristors vont-ils doper la loi de Moore ?) pour présenter plus en détail les caractéristiques et attributs de cette technologie.

9 HP 6

9 HP 3

9 HP 1

Rappelons que le Memristor, une appellation qui est la contraction de Memory Resistor, est présenté comme le quatrième composant passif fondamental de l’électronique aux côtés de résistance, le condensateur et le solénoïde (Composants passifs : HP invente le quatrième élément). Cette réalisation intervient 37 ans après qu’un ingénieur de l’université de Berkeley avait postulé, en se basant sur des raisons de symétrie, l’existence d’un tel composant. Il partait de l’idée qu’un tel composant jouerait un rôle similaire par rapport au flux magnétique et à la charge qu’une résistance par rapport à l’intensité électrique et la tension. En pratique, cela signifie que ce nouveau composant aurait une mémoire lui permettant de se rappeler des valeurs du courant après que celui-ci soit passé, en un mot une mémoire non volatile.

« Après avoir travaillé pendant une quinzaine d’années sur les technologies mémoire, je suis persuadé que cette technologie pourra être utilisée pour la confection des mémoires, expliquait en 2010 Stan Williams qui qui dirigeait à l’époque des chercheurs d’HP travaillant sur le sujet. Le délai raisonnable pour que les premiers produits à base de Memristors soit disponible devrait être de trois ans (…) A terme, nous espérons que ces futures mémoires pourront devenir la mémoire universelle que l’on attend depuis bien longtemps et apporteront une amélioration significative au niveau de l’expérience utilisateur. » Un tel composant peut changer d’état – passer de 0 à 1 – en une picoseconde tout en utilisant beaucoup moins d’énergie.

Mais une telle machine ne peut fonctionner efficacement sans un système d’exploitation conçue spécialement pour elle. C’est ce sur quoi est également en train de travailler HP qui sera basé sur du logiciel open source. Mais la caractéristique de non volatilité permet également de repenser le cloud, ce qu’HP appelle Distributed Mesh Cloud.

Un prototype de The Machine devrait fonctionner en 2016 selon Kirk Bresniker, architecte en chef du projet qui emploie quelque 200 chercheurs. Une première version d’un système d’exploitation dénommé Linux++ devrait être introduite en juin 2015. Elle permettra de tester le code développé pour ce futur ordinateur. Viendra ensuite le système d’exploitation développé à partir de zéro appelé Carbon par les HP Labs. Une machine de ce type pourrait être 6 fois plus performant qu’un serveur conventionnel équivalent, dans un format 10 plus petit et consommant 80 fois moins d’électricité.

The Machine pour le big data