Considéré comme le Graal de l'informatique, le futur ordinateur quantique promet des puissances de calcul gigantesques. Face au taux d'erreur encore beaucoup trop élevé, Google a fait une avancée importante.
Des scientifiques de Google ont annoncé une nouvelle percée vers le futur ordinateur quantique, avec une expérience qui réduit significativement le taux d'erreur, obstacle majeur vers ce Graal de l'informatique, selon une étude parue le 22 février dans Nature.
L'ordinateur quantique universel est appelé à transformer radicalement l'informatique, avec des puissances de calcul gigantesques, sans commune mesure avec les machines classiques. Mais cette machine révolutionnaire, considérée comme un Graal par les informaticiens, n'est pas pour demain car de nombreux obstacles technologiques restent à surmonter, notamment un taux d'erreur beaucoup trop élevé pour développer des applications fiables.
Une expérience menée par le département de recherche Google Quantum AI a démontré que la correction d'erreurs pouvait être significativement améliorée, ce qui permet au géant du numérique d'avancer ses pions dans la course à l'ordinateur quantique.
Lire aussi : Bienvenue dans le futur
Les processeurs quantiques supraconducteurs, comme ceux de Google ou de son rival IBM, exploitent les étonnantes propriétés de la physique quantique qui régit le monde à l'échelle de l'infiniment petit. Ils utilisent des bits quantiques appelés qubits : ce sont les briques de base de l'informatique quantique qui ont une infinité d'états possibles pouvant se superposer (0 et 1 à la fois) et s'enchevêtrer, alors que les bits des ordinateurs classiques n'ont que deux états possibles (0 ou 1). La superposition et l'intrication permettent de réaliser des opérations mathématiques massives en parallèle, car l'ordinateur est capable d'explorer toutes les solutions en même temps et non une à une.
Mais la manipulation des qubits se heurte à un obstacle physique majeur appelé décohérence, qui fait disparaître les propriétés quantiques au contact de la moindre perturbation extérieure. C'est cette fragilité qui génère un taux d'erreur important, et d'autant plus gênant que plus il y a de qubits, plus ces erreurs augmentent.
Google a testé une méthode utilisant des codes correcteurs capables de détecter et corriger les erreurs sans affecter l'information. Ce système, destiné à améliorer les performances logiques de la machine, a été théorisé à la fin des années 1990, et n'est donc pas nouveau. Sauf que sa mise en pratique donne l'effet inverse que celui espéré : plus il y a de qubits, plus la taille du code correcteur doit augmenter et... plus la performance de correction diminue.
Lire aussi : Qui sont les influenceurs tech qui pèsent le plus en Europe ?
Les scientifiques de Google disent avoir pour la première fois mis au point un code correcteur d'erreurs qui inverse ce processus. « C'est une bascule, la magie de la correction s'est opérée », a commenté le Dr Hartmut Neven, l'auteur principal, lors d'une conférence de presse. « Mais ça n'est pas assez, il nous faut désormais atteindre un taux d'erreurs bien plus bas », a concédé le scientifique. Le chemin est donc encore long avant que la technologie soit utile.
En 2019, Google avait revendiqué la « suprématie quantique », affirmant que son processeur Sycomore avait réussi en 3 minutes un calcul qui aurait demandé plus de 10 000 ans à un supercalculateur classique. L'annonce a ensuite été contestée, notamment parce que le calcul fait alors ne servait à rien d'autre que remporter cette victoire.