Application des méthodes de physique des particules à l’informatique quantique – Technoguide

En empruntant une page à des manuels de physique et d’astronomie des hautes énergies, une équipe de physiciens et d’informaticiens du Lawrence Berkeley National Laboratory (Berkeley Lab) du département américain de l’énergie a adapté et appliqué avec succès une technique commune de réduction des erreurs au domaine de l’informatique quantique. .

Dans le monde des particules subatomiques et des détecteurs de particules géantes, des galaxies lointaines et des télescopes géants, les scientifiques ont appris à vivre et à travailler dans l’incertitude. Ils essaient souvent de démêler les interactions de particules ultra-rares d’un enchevêtrement massif d’autres interactions de particules et de «bruit» de fond qui peuvent compliquer leur chasse, ou essayent de filtrer les effets des distorsions atmosphériques et de la poussière interstellaire pour améliorer la résolution de l’astronomie. imagerie.

En outre, des problèmes inhérents aux détecteurs, tels que leur capacité à enregistrer toutes les interactions de particules ou à mesurer exactement les énergies des particules, peuvent entraîner une mauvaise lecture des données par l’électronique à laquelle ils sont connectés, les scientifiques doivent donc concevoir des filtres complexes, sous la forme d’algorithmes informatiques, pour réduire la marge d’erreur et renvoyer les résultats les plus précis.

Les problèmes de bruit et de défauts physiques, et la nécessité d’algorithmes de correction et d’atténuation des erreurs, qui réduisent la fréquence et la gravité des erreurs, sont également courants dans le domaine naissant de l’informatique quantique, et une étude publiée dans la revue npj Quantum Les informations ont révélé qu’il semble également y avoir des solutions communes.

Ben Nachman, un physicien du Berkeley Lab impliqué dans des expériences de physique des particules au CERN en tant que membre du groupe ATLAS de Berkeley Lab, a vu le lien entre l’informatique quantique tout en travaillant sur un calcul de physique des particules avec Christian Bauer, un physicien théoricien du Berkeley Lab qui est un co-auteur de l’étude. ATLAS est l’un des quatre détecteurs de particules géants du Grand collisionneur de hadrons du CERN, le plus grand et le plus puissant collisionneur de particules au monde.

“Chez ATLAS, nous devons souvent” déplier “ou corriger les effets du détecteur”, a déclaré Nachman, l’auteur principal de l’étude. “Les gens développent cette technique depuis des années.”

Lors d’expériences au LHC, des particules appelées protons entrent en collision à une vitesse d’environ 1 milliard de fois par seconde. Pour faire face à cet environnement incroyablement chargé et “bruyant” et aux problèmes intrinsèques liés à la résolution énergétique et à d’autres facteurs associés aux détecteurs, les physiciens utilisent des techniques de “dépliage” de correction d’erreurs et d’autres filtres pour vider ce fouillis de particules au plus utile et le plus précis. Les données.

“Nous avons réalisé que les ordinateurs quantiques actuels sont également très bruyants”, a déclaré Nachman, donc trouver un moyen de réduire ce bruit et de minimiser les erreurs – l’atténuation des erreurs – est une clé pour faire progresser l’informatique quantique. “Un type d’erreur est lié aux opérations réelles que vous effectuez, et l’autre concerne la lecture de l’état de l’ordinateur quantique”, a-t-il noté – ce premier type est connu comme une erreur de porte, et la seconde est appelée une erreur de lecture. .

La dernière étude se concentre sur une technique de réduction des erreurs de lecture, appelée «dépliage bayésien itératif» (IBU), qui est familière à la communauté des physiciens des hautes énergies. L’étude compare l’efficacité de cette approche à d’autres techniques de correction d’erreur et d’atténuation. La méthode IBU est basée sur le théorème de Bayes, qui fournit un moyen mathématique de trouver la probabilité qu’un événement se produise lorsqu’il existe d’autres conditions liées à cet événement qui sont déjà connues.

Nachman a noté que cette technique peut être appliquée à l’analogue quantique des ordinateurs classiques, connus sous le nom d’ordinateurs quantiques à porte universelle.

Dans l’informatique quantique, qui repose sur des bits quantiques, ou qubits, pour transporter des informations, l’état fragile connu sous le nom de superposition quantique est difficile à maintenir et peut se décomposer avec le temps, ce qui fait qu’un qubit affiche un zéro au lieu d’un un – c’est un exemple courant d’erreur de lecture.

La superposition prévoit qu’un bit quantique peut représenter un zéro, un un ou les deux quantités en même temps. Cela permet des capacités de calcul uniques qui ne sont pas possibles dans le calcul conventionnel, qui reposent sur des bits représentant un un ou un zéro, mais pas les deux à la fois. Une autre source d’erreur de lecture dans les ordinateurs quantiques est simplement une mesure défectueuse de l’état d’un qubit en raison de l’architecture de l’ordinateur.

Dans l’étude, les chercheurs ont simulé un ordinateur quantique pour comparer les performances de trois techniques différentes de correction d’erreur (ou d’atténuation ou de déploiement d’erreurs). Ils ont constaté que la méthode IBU est plus robuste dans un environnement très bruyant et sujet aux erreurs, et surpasse légèrement les deux autres en présence de modèles de bruit plus courants. Ses performances ont été comparées à une méthode de correction d’erreur appelée Ignis qui fait partie d’une collection d’outils de développement de logiciels informatiques quantiques open source développés pour les ordinateurs quantiques d’IBM, et à une forme très basique de dépliage connue sous le nom de méthode d’inversion matricielle.

Les chercheurs ont utilisé l’environnement informatique quantique simulé pour produire plus de 1 000 pseudo-expériences, et ils ont constaté que les résultats de la méthode IBU étaient les plus proches des prédictions. Les modèles de bruit utilisés pour cette analyse ont été mesurés sur un ordinateur quantique de 20 qubits appelé IBM Q Johannesburg.

“Nous avons pris une technique très courante de la physique des hautes énergies et l’avons appliquée à l’informatique quantique, et cela a très bien fonctionné – comme il se doit”, a déclaré Nachman. Il y avait une courbe d’apprentissage abrupte. “J’ai dû apprendre toutes sortes de choses sur l’informatique quantique pour être sûr de savoir comment le traduire et l’implémenter sur un ordinateur quantique.”

Il a déclaré qu’il avait également été très chanceux de trouver des collaborateurs pour l’étude avec une expertise en informatique quantique au Berkeley Lab, y compris Bert de Jong, qui dirige une équipe du DOE Office of Advanced Scientific Computing Research Quantum Algorithms Team et un projet de recherche accélérée pour l’informatique quantique à Berkeley. Division de la recherche informatique du laboratoire.

“Il est passionnant de voir comment la pléthore de connaissances développées par la communauté de la physique des hautes énergies pour tirer le meilleur parti des expériences bruyantes peut être utilisée pour tirer le meilleur parti des ordinateurs quantiques bruyants”, a déclaré de Jong.

Les ordinateurs quantiques simulés et réels utilisés dans l’étude variaient de cinq qubits à 20 qubits, et la technique devrait être évolutive pour des systèmes plus grands, a déclaré Nachman. Mais les techniques de correction et d’atténuation des erreurs que les chercheurs ont testées nécessiteront plus de ressources informatiques à mesure que la taille des ordinateurs quantiques augmente, donc Nachman a déclaré que l’équipe se concentrait sur la manière de rendre les méthodes plus gérables pour les ordinateurs quantiques avec des tableaux de qubits plus grands.

Nachman, Bauer et de Jong ont également participé à une étude antérieure qui propose un moyen de réduire les erreurs de porte, qui est l’autre source majeure d’erreurs de calcul quantique. Ils estiment que la correction et l’atténuation des erreurs dans le calcul quantique peuvent finalement nécessiter une approche mixte – en utilisant une combinaison de plusieurs techniques.

«C’est une période passionnante», a déclaré Nachman, car le domaine de l’informatique quantique est encore jeune et il y a beaucoup de place pour l’innovation. “Les gens ont au moins compris le message concernant ces types d’approches, et il y a encore place pour des progrès.” Il a noté que l’informatique quantique a fourni une «poussée pour réfléchir aux problèmes d’une nouvelle manière», ajoutant: «Elle a ouvert un nouveau potentiel scientifique».

.

Lire plus

A propos Technoguide

Voir aussi

Des simulations révèlent comment la souche dominante du SRAS-CoV-2 se lie à l’hôte et succombe aux anticorps – Technoguide

Des simulations de supercalculateurs à grande échelle au niveau atomique montrent que la variante de …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Défiler vers le haut