Informatique quantique versus conventionnelle: une course plus étroite que vous ne le pensez

Une nouvelle méthode utilisant l'informatique conventionnelle peut réduire le temps de simulation de 600 millions d'années à des mois, ce qui remet en question une revendication de «avantage quantique».

Atteindre «Avantage quantique» - où un ordinateur quantique peut réaliser quelque chose, même les superordinateurs conventionnels les plus rapides du monde ne peuvent pas sur une échelle de temps raisonnable - est un point de repère important sur le voyage vers la création d'un ordinateur quantique utile.

Des chercheurs de l'Université de Bristol, de l'Imperial College de Londres, de l'Université d'Oxford et des Hewlett-Packard Enterprises suivent le rythme avec l'avantage quantique en développant de nouvelles méthodes qui peuvent réduire le temps de simulation sur les ordinateurs conventionnels par un facteur d'accélération d'environ un milliard.

Les ordinateurs quantiques promettent des accélérations exponentives pour certains problèmes, avec des applications potentielles dans les zones de la découverte de médicaments à de nouveaux matériaux pour les batteries.Mais l'informatique quantique en est encore à ses débuts, donc ce sont des objectifs à long terme.

La nouvelle recherche, publiée aujourd'hui dans la revue Science Advances, remet en question une allégation précédente d'avantage quantique en améliorant une méthode d'informatique conventionnelle, l'accélérant considérablement.

Réclamer l'avantage quantique

L'étude fait suite à un article expérimental de l'Université des sciences et de la technologie de Chine (USTC) qui a été le premier à revendiquer un avantage quantique utilisant des photons - des particules de lumière.

Dans l'expérience de l'USTC, ils ont généré un grand état quantique très complexe de la lumière et l'ont mesuré à l'aide de détecteurs à photons uniques dans un protocole appelé «échantillonnage de boson gaussien» (GBS)).Leur article a affirmé que l'expérience, effectuée en 200 secondes, prendrait 600 millions d'années pour simuler le plus grand supercalculateur du monde.

Quantum versus conventional computing: a closer race than you think

La nouvelle étude révèle que les méthodes mises à jour de simulation du GBS peuvent réduire le temps de simulation prévu de 600 millions d'années à quelques mois, un facteur d'accélération d'environ un milliard.

Le premier auteur conjoint, le Dr Bryn Bell, auparavant du Département de physique d'Imperial et maintenant senior quantum ingénieur chez Oxford Quantum Circuits, a déclaré: «Alors que les chercheurs développent des expériences à plus grande échelle, ils chercheront à faire des revendications de l'avantage quantique par rapport aux simulations classiques.Nos résultats fourniront un point de comparaison essentiel par lequel établir la puissance de calcul des futures expériences GBS."

La valeur des ressources de calcul actuelles

Le co-auteur, le Dr Raj Patel, du Département de physique de l'Imperial et de l'Université d'Oxford, a déclaré: «Notre travail avec l'Université de Bristol et Hewlett-Packard Enterprises souligne la nécessité de continuer à développer des méthodes de simulation qui fonctionnent sur le matériel« classique ».

"L'informatique quantique est bien sûr le Saint Graal, mais il est souvent facile de perdre de vue l'importance des ressources de calcul que nous avons actuellement qui peuvent nous aider en cours de route.

«L'utilisation de ces ressources pour trouver la frontière à laquelle un avantage quantique peut être obtenu est non seulement d'intérêt académique, mais il est crucial pour inculquer la confiance dans les parties prenantes potentielles dans les technologies quantiques émergentes."

Les méthodes de l'équipe n'exploitent aucune erreur dans l'expérience et donc une prochaine étape pour la recherche consiste à combiner leurs nouvelles méthodes avec des techniques qui exploitent les imperfections de l'expérience du monde réel.Cela accélérerait davantage le temps de simulation et renforcerait les domaines qui nécessitent des améliorations.

Complexité informatique

Le premier auteur conjoint Jake Bulmer, doctorant à l'Université de Bristol, a déclaré: «L'estimation de l'USTC a utilisé les méthodes de simulation les plus connues connues à l'époque, mais nous étions convaincus que des améliorations significatives pourraient être apportées.En nous demandant, qu'est-ce que cette expérience le rend complexe, nous pourrions découvrir la compréhension de la façon de la simuler de la manière la plus efficace.

«En substance, nos méthodes révèlent quelles parties des expériences de GBS sont importantes et lesquelles ne sont pas en ce qui concerne la conception de nouvelles générations d'appareils.Par exemple, nous montrons que si les détecteurs de photons sont améliorés, cela pourrait considérablement augmenter la complexité de l'expérience.

«Ces expériences simulées représentent une énorme réalisation de la physique et de l'ingénierie.En tant que chercheur, il est vraiment excitant de contribuer à la compréhension de la présente complexité de calcul de ces expériences. We were pretty thrilled with the magnitude of the improvements we achieved - it is not often that you can claim to find a one-billion-fold improvement!"

-

«La limite pour l'avantage quantique dans l'échantillonnage de boson gaussien» par JacobF.F.Bulmer et al.est publié dans Science Advances.

Basé sur un communiqué de presse de l'Université de Bristol.

Articles populaires