ordinateurs quantiques IBM
Crédits : Bartlomiej Wroblewski/istock

IBM dit avoir résolu le plus grand frein à l’informatique quantique : voici pourquoi c’est un tournant historique

Et si l’ordinateur quantique que l’on vous promet depuis 30 ans devenait enfin une réalité ? C’est exactement ce qu’affirme IBM cette semaine, en annonçant une percée qui pourrait tout changer. Selon ses chercheurs, ils viennent de franchir un cap scientifique majeur : la résolution du plus gros goulot d’étranglement de l’informatique quantique, la gestion des erreurs.

Une annonce ambitieuse, certes, mais qui s’appuie sur deux nouvelles études publiées début juin sur le serveur de prépublication arXiv. À travers une nouvelle méthode de correction d’erreurs baptisée LDPC quantique (Low-Density Parity Check), IBM estime avoir trouvé la clé pour faire passer les ordinateurs quantiques de jouets de laboratoire à véritables machines industrielles puissantes, fiables, et exploitables.

Le vrai problème des ordinateurs quantiques : les erreurs

Pour comprendre l’impact de cette avancée, il faut d’abord saisir le talon d’Achille des ordinateurs quantiques : les erreurs de calcul. Contrairement aux bits classiques (0 ou 1), les qubits, unités de base du quantique, peuvent exister dans plusieurs états superposés. Cela leur permet des performances théoriquement décuplées… mais rend aussi leur manipulation extrêmement instable.

Le moindre bruit, changement de température ou perturbation électromagnétique peut faire basculer un qubit dans un état erroné. Résultat : les calculs deviennent rapidement imprécis, voire inutilisables. Jusqu’ici, cette fragilité empêchait tout espoir de concevoir une machine quantique de grande échelle fiable, autrement dit tolérante aux pannes.

LDPC : une nouvelle méthode pour corriger les erreurs

C’est là qu’intervient la grande promesse d’IBM. Grâce aux nouveaux codes de correction LDPC quantiques, chaque qubit logique (utilisé pour calculer) peut désormais être protégé par un nombre beaucoup plus faible de qubits physiques(utilisés pour sécuriser les données contre les erreurs).

Concrètement, cela signifie que les ordinateurs quantiques peuvent s’agrandir sans être submergés par leurs propres erreurs. IBM parle d’une efficacité de mise à l’échelle 9 fois supérieure à celle des techniques précédentes, et d’un système capable de gérer les erreurs 90 % plus vite.

Des machines prévues pour 2029 et 2033

À la clé, deux machines d’un tout nouveau genre :

  • Starling (prévue pour 2029) : 200 qubits logiques, protégés par environ 10 000 qubits physiques, pour un total de 100 millions d’opérations quantiques possibles.

  • Blue Jay (attendue pour 2033) : 2 000 qubits logiques, soit 1 milliard d’opérations quantiques.

Pour rappel, les machines actuelles tournent autour de 5 000 opérations quantiques, avec un nombre de qubits bien plus limité. Autrement dit, si IBM réussit, le saut de puissance serait de plusieurs ordres de grandeur.

Ce que ça change concrètement

Pourquoi cette annonce est-elle si importante ? Parce qu’elle marque, selon IBM, la fin du verrou scientifique. Jusqu’ici, on ne savait tout simplement pas comment faire évoluer les architectures quantiques sans que le taux d’erreurs ne rende tout calcul impossible.

« La science a résolu le problème », affirme Jay Gambetta, vice-président de la division quantique d’IBM. Le défi est désormais technologique, plus théorique : construire, intégrer, perfectionner. Un passage symbolique, qui fait basculer l’informatique quantique dans une nouvelle ère, celle du concret.

Une nouvelle architecture pour un nouveau monde

Ces futures machines seront basées sur une nouvelle plateforme matérielle, baptisée Loom, qui succède à l’actuelle architecture Heron. Pour préparer les développeurs et les chercheurs à ces nouveaux ordinateurs, IBM a déjà lancé Qiskit 2.0, un environnement de programmation en open source.

L’objectif ? Permettre dès maintenant la création d’algorithmes quantiques capables de tirer parti de ces puissances inédites. Car une fois les erreurs corrigées, il faudra bien savoir quoi faire de cette puissance.

BM informatique quantique ordinateurs quantiques
L’architecture actuelle du QPU Heron d’IBM sera pâle en comparaison du potentiel de son architecture Loon de nouvelle génération. Crédits : IBM

Vers la suprématie quantique (pour de bon ?)

Depuis des années, l’idée d’un « avantage quantique » – où les ordinateurs quantiques surpasseraient les machines classiques sur des problèmes concrets – reste hypothétique. Quelques démonstrations ponctuelles ont été faites (notamment chez Google), mais elles concernent des calculs sans application réelle.

Avec Starling, puis Blue Jay, IBM espère dépasser ce stade expérimental. Si les machines tiennent leurs promesses, cela pourrait ouvrir la voie à des avancées révolutionnaires dans la modélisation moléculaire, la chimie, l’optimisation logistique ou encore l’intelligence artificielle.


Ce qu’il faut retenir

  • IBM affirme avoir levé le principal frein à l’ordinateur quantique : la gestion des erreurs.

  • Grâce aux codes LDPC, la mise à l’échelle devient possible sans explosion du taux d’erreurs.

  • Deux machines sont prévues, dont une en 2029, avec une capacité de calcul sans précédent.

  • Cela pourrait marquer le véritable début de l’ère quantique, après des décennies de promesses.

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.