Des chercheurs du CNRS, de l’université d’Edimbourg et de QC Ware ont démontré à leur tour un « avantage quantique » que quelques experts continuent de mettre en doute. Mais leur démonstration est un peu plus solide que celles jusqu’ici réalisées …

En 2019, Google défrayait l’actualité IT et secouait l’univers de l’informatique quantique en prétendant avoir atteint la « suprématie quantique ». Derrière ces deux mots se cache une idée évoquée en 2011 par John Preskill selon laquelle « l’ère de la suprématie quantique débutera lorsque nous serons capables de réaliser sur un système quantique contrôlé des tâches au-delà de tout ce qu’il est possible de faire avec un ordinateur classique ».
Car depuis 1981 et les convictions de Richard Feynman, l’industrie informatique est persuadée que les ordinateurs quantiques offriront une puissance de calcul infiniment supérieure aux ordinateurs numériques classiques ou que plus exactement qu’ils permettront de résoudre des problèmes d’une grande complexité, hors de portée des machines classiques, grâce à leur approche radicalement différente.

Personne n’a véritablement reconnu la suprématie revendiquée par Google. D’abord parce que la tâche réalisée n’avait guère d’intérêt pratique, ensuite parce qu’un calcul équivalent peut être réalisé par un HPC IBM Summit en deux jours et non en 10 000 ans comme affirmé par Google.

Aujourd’hui, les chercheurs se montrent plus mesurés dans leurs propos et préfèrent parler d’ « avantage quantique » comme l’ont fait les chercheurs chinois de l’USTC de Hefei : ils ont réalisé avec leur ordinateur quantique un « Boson Sampling » avec 76 photons détectés en 200 secondes alors qu’il aurait fallu 600 millions d’années au plus puissant HPC du monde pour arriver à un résultat similaire.

À leur tour des chercheurs du CNRS et de la startup franco-américaine QC Ware en association avec l’université d’Édimbourg, confirment avoir démontré l’avantage quantique. Un moyen de rappeler que l’Europe aussi a sa place dans la course à l’ère de la suprématie quantique.

Leur expérience présente trois atouts sur les expérimentations précédentes :
– d’abord, elle s’appuie sur un algorithme d’optimisation complexe à la portée plus immédiatement utile que le « Boson Sampling » de Google et de l’équipe chinoise.
– ensuite, il est plus facile d’évaluer les ressources qui seraient nécessaires pour arriver au même résultat sur un ordinateur classique.
– enfin, le résultat produit par l’ordinateur quantique peut être vérifié (contrairement aux expériences précédentes basées sur un échantillonnage statistique). En effet, le résultat du problème d’optimisation est une solution qui peut être aisément vérifiée (elle est vraie ou fausse).

Leur démonstration combine un algorithme interactif complexe, qui permet de résoudre un certain type de problèmes mathématiques avec des informations limitées, et un système expérimental photonique simple (assimilable à un calculateur quantique, comme dans le cadre de l’expérience chinoise alors que l’expérience Google a elle été réalisée sur un ordinateur quantique universel Sycamore 53 qubits), réalisable dans tous les laboratoires photoniques de pointe.
Elle prouve qu’une machine quantique peut effectuer une tâche de vérification donnée en quelques secondes alors que le même exercice prendrait un temps équivalent à l’âge de l’univers sur un ordinateur classique.

Bien sûr, on est encore loin d’arriver à une application ou un service exploitable par des entreprises afin de résoudre des problèmes d’optimisation pratiques. Mais l’expérience cherche d’abord à démontrer que les intuitions de Richard Feynman sur la suprématie des machines quantiques sont pertinentes mais aussi à démontrer un certain « savoir-faire » européen à la fois en matière de technologies quantiques et de protocoles expérimentaux. Expérience somme toute réussie…