Pour une amélioration significative par rapport aux systèmes classiques, la puissance des ordinateurs quantiques doit doubler chaque année indique IBM.
L’informatique quantique on en parle beaucoup depuis quelques années mais les fournisseurs semblent avoir des difficultés à donner une roadmap avec des échéances précises. On le sait, quand elle sera disponible, l’informatique quantique ne sera pas seulement plus performante que son homologue conventionnelle mais elle permettra de s’attaquer à des problèmes dont la résolution était totalement impensable car impossible. Mais IBM atteste que l’informatique quantique se situe aujourd’hui dans une perspective comparable à celle qui avait conduit en 1965 à la loi de Moore que l’industrie des semiconducteurs vérifie depuis une cinquantaine d’années mais qui commence à montrer ses limites.
Jusqu’ici le principal indicateur reflétant la performance d’un ordinateur quantique était le qubit, équivalent du bit des ordinateurs traditionnels. Lors que la conférence American Physical Society March Meeting (APS) 2019 qui se tient actuellement à Boston et réunit plus de 10 000 scientifiques, BM dévoile un nouveau paramètre qui détermine la puissance d’un ordinateur quantique, le volume quantique, et annonce qu’il vient d’atteindre des performances inégalées.
Le volume quantique est déterminé par divers facteurs, dont le nombre de qubits, la connectivité et le temps de cohérence, ainsi que la prise en compte des erreurs sur les portes quantiques et des erreurs de mesure, la connexion entre qubits et l’amélioration des couches logicielles. Autrement dit, la performance d’un ordinateur quantique est la combinaison de plusieurs facteurs. Et plus le volume quantique est élevé, plus les ordinateurs quantiques peuvent potentiellement résoudre des problèmes complexes et réels, tels que la simulation dans le domaine de la chimie, la modélisation du risque financier et l’optimisation de la chaîne logistique.
Les récents efforts d’informatique quantique sont allés au-delà contrôler quelques qubits, et sont maintenant concentrés sur le contrôle avec plusieurs dizaines de qubits, explique les chercheurs d’IBM dans un article récent intitulé Validating quantum computers using randomized model circuits.
Nous abordons cette question en introduisant une métrique à un seul nombre, le volume quantique, ainsi qu’un protocole concret pour le mesurer à court terme. Semblable à la façon dont Le LINPACK est utilisé pour comparer les supercalculateurs (le Top500 qui mesure les 500 supercalculateurs les plus puissants de la planète) cette métrique n’est pas conçue pour un système particulier, ne nécessitant que la capacité mettre en œuvre un ensemble de portes quantiques.
IBM rappelle avoir doublé la puissance de ses ordinateurs quantiques chaque année depuis 2017. Le volume quantique est une mesure de performance fondamentale qui mesure les progrès réalisés dans la poursuite de l’avantage quantique, le point auquel les applications quantiques offrent un avantage pratique significatif et démontrable qui dépasse les capacités des seuls ordinateurs classiques. Des cas d’usages potentiels, tels que la simulation de nouveaux composants pour les batteries des véhicules électriques, l’accélération quadratique dans certains problèmes du domaine financier, et bien d’autres sont déjà à l’étude par les partenaires de l’IBM Q Network. Pour atteindre l’avantage quantique dans les années 2020, nous devons continuer à au moins doubler le volume quantique chaque année.
IBM a mis pour la première fois des ordinateurs quantiques à la disposition du public en mai 2016 par le biais de son service Cloud quantique IBM Q experience.
IBM a récemment dévoilé l’ordinateur quantique IBM Q System One, disposant d’un processeur de quatrième génération de 20 qubits, et a produit un volume quantique de 16, environ le double du système IBM Q actuel de 20 qubits, qui a un volume quantique de 8.
En plus de produire le volume quantique le plus élevé à ce jour, la performance d’IBM Q System One reflète des taux d’erreur parmi les plus faibles jamais mesurés par IBM, avec une moyenne d’erreur sur les portes quantiques de 2 qubits inférieure à 2 % ; sa meilleure porte quantique atteignant un taux d’erreur de moins de 1%, deux éléments majeurs au développement de l’informatique quantique. Pour construire un ordinateur quantique entièrement fonctionnel, à grande échelle, universel et tolérant aux pannes, il faut de longs temps de cohérence et de faibles taux d’erreur.
Dans le document Cramming more components onto integrated circuits diffusé en 1965, Gordon Moore avait développé une théorie sur le fait que le nombre de composants par fonction intégrée augmenterait de façon exponentielle pour les ordinateurs classiques. La progression du système IBM Q depuis 2017 présente un profil de croissance similaire. Il est donc impératif que le volume quantique double chaque année, avec une feuille de route claire pour atteindre l’avantage quantique.