Longtemps utilisé pour la simulation, le HPC est aujourd’hui un outil au service du Big Data analytics et de l’intelligence artificielle. Gourmandes en puissance de calcul pour analyser les données en temps réel et pour produire des patterns, ces deux technologies constituent de nouveaux champs d’applications pour le HPC.

Automobile, aéronautique, chimie, pétrole, cosmétique… toutes ces industries utilisent le Calcul Haute Performance (HPC, pour High Performance Computing) à des fins de simulation. Grâce à la croissance de la puissance de calcul, ces industries se sont affranchies de nombreuses phases de tests grandeur nature, longues et onéreuses. La déformation des matériaux, leurs résistances au crash, le comportement de telle ou telle molécule dans un environnement chimique X, ou encore l’analyse du comportement des sols en cas d’extraction, sont devenus des étapes analysées numériquement.

Ainsi la combinaison des modèles mathématiques et de la puissance de calcul des supercalculateurs permet de réaliser des calculs scientifiques excessivement complexes, de façon rapide et avec un très haut niveau de fiabilité. Aujourd’hui plus aucun projet de R&D industriel ne se fait sans recourir au HPC. Constitué de centaines, de milliers voire de millions de cœurs, le HPC est désormais au centre de la stratégie d’innovation de tous les grands groupes industriels ou chimiques. Total, Airbus ou encore le CEA disposent de milliers de serveurs leur permettant de s’appuyer sur une puissance de calcul pouvant atteindre le pétaflop (« million de milliards d’opérations en virgule flottante par seconde », une unité de mesure de la vitesse d’une solution de calcul), voire quelques dizaines de pétaflops. Chez Total, qui possède l’une des plus grosses machines d’Europe, cette puissance de calcul est utilisée pour faire du traitement sismique et du calcul de réservoir.

Nouveau domaine d’application : le High Performance Data Analytics 

Aujourd’hui deux nouveaux champs d’applications ont recours au HPC : le Big Data analytics et l’intelligence artificielle. Ainsi, la convergence du Big Data et du HPC, constitue le High Performance Data Analytics (HPDA), processus mettant la puissance de calcul du HPC au service des algorithmes qui analysent les données du Big Data. Cette conjugaison permet d’exploiter et de rendre compréhensible de manière excessivement rapide un grand volume de données issues du Big Data.

C’est ainsi que dans le cadre du séquençage de l’ADN réalisé au CHU de Toulouse et à l’INRA, le HPC permet de réaliser très rapidement l’analyse génomique et d’établir un lien entre séquence d’ADN et maladie. Dans ce cas, le HPC n’est pas utilisé pour réaliser des calculs massivement parallèles (comme dans le cas du HPC traditionnel), mais pour traiter de nombreux flux de données. En effet, pour ces chaines de traitement Big Data, chaque processeur fonctionne de façon indépendante et l’addition de toutes ces analyses délivre le résultat final.

Le HPC au service de l’Intelligence Artificielle

Le troisième domaine d’application est le machine learning, volet statistique de l’intelligence artificielle. Là encore, il s’agit d’utiliser la puissance de calcul du HPC pour dégager des patterns à partir de la masse de données issues d’expérimentations et d’observations. Le machine learning nécessite la puissance de calcul à deux niveaux : lors de la phase d’apprentissage pour assimiler tout le volume de données et lors de la phase d’inférence quand les règles apprises sont appliquées. Un des domaines d’applications phare actuel est la voiture autonome qui doit intégrer un très grand volume de données et être capable de les analyser pour prendre des décisions en temps réel. C’est sur ce même mécanisme de machine learning que fonctionne AlphaGo, le programme développé par Google qui a récemment battu un champion mondial du jeu de Go, Lee Sedol. Ce matériel est capable de calculer des dizaines de milliers de positions par seconde.

PRACE : un programme européen pour jouer un rôle sur l’échiquier international

En 2016, le supercalculateur le plus puissant du monde atteint près de 100 pétaflops avec plus de 10 millions de cœurs de processeurs (classement des ordinateurs les plus puissants du monde TOP500, 2016). Cette machine d’origine chinoise met fin à plus de 20 ans d’hégémonie américaine dans ce domaine. Et si les Etats-Unis et la Chine sont les pays qui disposent via les organismes d’Etat, des plus gros calculateurs, l’Europe entend bien jouer un rôle sur l’échiquier mondial, grâce à PRACE (Partnership for Advanced Computing in Europe). Lancé en 2010, ce programme qui compte depuis le 1er mars 2013, 25 pays européens, a pour objectif de ramener l’Europe du calcul intensif dans la compétition internationale.

Aujourd’hui avec des technologies comme le Big Data analytics, l’intelligence artificielle ou le machine learning, dont l’exploitation nécessite toujours plus de puissance de calcul, le HPC devient un enjeu économique et politique majeur. Coeur de l’innovation et de la compétitivité des entreprises, le HPC est aussi un élément constitutif de l’indépendance des pays.

___________
Marc Trassoudaine est Responsable BU Performance Solutions HPC, Big Data & VDI 3D chez Axians