La firme américaine Google, bien connue pour ses recherches sur les techniques de l’intelligence artificielle, confirme aussi être à la pointe du secteur porteur du calcul quantique. Dans la revue britannique Nature, le 9 décembre, une de ses équipes démontre expérimentalement pour la première fois qu’une prédiction théorique, faite il y a trente ans et essentielle dans ce domaine, est juste. Les ordinateurs quantiques promettent, en effectuant des opérations différemment qu’avec les transistors des microprocesseurs, de résoudre des problèmes insolubles jusqu’à présent ou d’accélérer certains calculs. Ce qui peut permettre, par exemple, de briser des codes de chiffrement, prédire des interactions entre molécules, accélérer la recherche sur les matériaux, les médicaments…
Ils tirent profit des propriétés de la matière pour manipuler de nouveaux objets, les qubits, capables de prendre non pas les valeurs 0 ou 1 de l’informatique classique, mais d’être à la fois 0 et 1. Il en découle une sorte de parallélisation des opérations, gage de plus grande efficacité. Mais fabriquer ces qubits est délicat. Constitués de grains de lumière, d’atomes chargés ou bien de minicircuits électroniques, comme chez Google, ces composants sont fragiles, perdant leurs intrigantes propriétés au moindre coup de chaud, léger tremblement ou choc avec des rayonnements… Comme n’importe quel microprocesseur, ils font donc des erreurs, qu’il s’agit de corriger. En 1995, le mathématicien américain Peter Shor a proposé une méthode pour ce faire, consistant à entourer un qubit par plusieurs autres qubits, que l’on vient interroger discrètement pour vérifier si le qubit central a été perturbé. Cette sorte de redondance est analogue à celle des protocoles de communication, qui protègent l’information en envoyant trois bits identiques, qui auront peu de chances d’être modifiés simultanément.
Ces codes dits « de surface » prévoient que plus il y a de qubits correcteurs autour du qubit d’intérêt, plus le taux d’erreur baisse. Malin, sauf que si un qubit est fragile, neuf, vingt-cinq, ou quarante-neuf le seront encore plus. A moins que la qualité intrinsèque des qubits ne passe un certain seuil. En 2023, le laboratoire de Google en était proche : augmenter le nombre de qubits protecteurs n’avait pas augmenté le taux d’erreur.
Cette fois, les chercheurs l’ont fait baisser exponentiellement. Doubler la protection divise par deux le taux d’erreur, qui chute à environ un pour mille. « L’annonce a surpris la communauté en août, à la mise en ligne en “preprint” [avant revue de l’article par les pairs]», se souvient Anthony Leverrier, chercheur à l’Institut national de recherche en sciences et technologies du numérique (Inria). Mais Google n’avait pas communiqué sur le sujet à l’époque.
Il vous reste 52.03% de cet article à lire. La suite est réservée aux abonnés.