D’accord, je suis suffisamment l’audition de l’informatique quantique pour savoir quand le cycle de battage médiatique habituel tourne en rond et quand quelque chose change réellement. 2024 semblait différent. Pas à cause d’une seule annonce, mais parce qu’en quelques mois, trois équipes distinctes utilisant des approches matérielles complètement différentes ont toutes atteint des étapes majeures. Lorsqu’un tel phénomène se produit simultanément dans tout le domaine, cela signifie que nous progressons réellement, et pas simplement en recyclant les mêmes communiqués de presse.



Laissez-moi décomposer ce que les dernières avancées en informatique quantique en 2024 ont réellement démontré et pourquoi cela importe au-delà des gros titres.

Google a lancé Willow en décembre — un processeur supraconducteur de 105 qubits qui a fait quelque chose que le domaine poursuivait depuis 30 ans. À mesure que vous ajoutez plus de qubits, le taux d’erreur diminue au lieu d’augmenter. C’est tout le jeu. Pendant des décennies, plus de qubits signifiait plus de bruit, plus de défaillances en cascade. Willow a rompu cette relation avec son architecture de correction d’erreurs, atteignant ce qu’ils appellent une opération « en dessous du seuil ». La référence qu’ils ont publiée était impressionnante — un calcul en moins de cinq minutes qui prendrait aux superordinateurs classiques 10 septillions d’années. Mais voici la partie honnête : cette référence est limitée. Elle prouve que l’échantillonnage de circuits aléatoires fonctionne, mais cela ne signifie pas que Willow exécute déjà des simulations de découverte de médicaments. La vraie valeur est architecturale — elle montre que l’informatique quantique à grande échelle corrigée d’erreurs n’est plus théorique.

Pendant ce temps, Microsoft et Quantinuum avaient déjà publié quelque chose en avril qui a reçu moins de presse mais était sans doute plus significatif pour les chercheurs. Des qubits logiques avec des taux d’erreur 800 fois inférieurs à ceux des qubits physiques dont ils proviennent. C’est la distinction qui compte : les qubits physiques sont les unités matérielles bruyantes, les qubits logiques sont construits à partir de plusieurs qubits physiques disposés pour détecter et corriger les erreurs sans détruire le calcul. La surcharge a toujours été brutale, mais une amélioration de 800x change la donne. Ensuite, en novembre, Microsoft, travaillant avec Atom Computing, a intriqué 24 qubits logiques en utilisant des atomes neutres ultrafroids — une architecture matérielle totalement différente, ce qui indique plusieurs voies viables pour l’avenir. Quantinuum a poussé plus loin, atteignant 50 qubits logiques en décembre.

La contribution d’IBM était plus discrète mais tout aussi importante. Heron R2 en novembre — 156 qubits avec des taux d’erreur de porte 2Q à 8×10⁻⁴. Les charges de travail qui prenaient plus de 120 heures s’exécutent maintenant en 2,4 heures. C’est le genre de preuve mesurée et progressive sur laquelle IBM construit sa réputation. Ils ont aussi publié un nouveau code de correction d’erreurs — le code bivarié bicycle qLDPC — qui réduit la surcharge pour encoder un qubit logique d’un facteur 10. Ce gain d’efficacité est ce qui fait passer l’informatique quantique tolérante aux fautes du « but lointain » au « problème d’ingénierie avec une solution ».

Ensuite, il y a les normes de cryptographie post-quantique du NIST en août. Cela ne ressemble pas à une avancée en informatique quantique, mais c’en est une. C’est la première fois qu’un organisme de normalisation mondial reconnaît officiellement que les ordinateurs quantiques capables de casser le chiffrement actuel ne sont plus purement théoriques. La transition de la norme à la déploiement prendra plus d’une décennie, donc les gouvernements et les entreprises doivent commencer dès maintenant. Pour la blockchain en particulier, cela est directement pertinent — sécurité des portefeuilles, validation des transactions, contrats intelligents tous construits sur un chiffrement asymétrique qui finira par nécessiter des alternatives résistantes à la quantique.

Voici ce qui est réellement important dans ces dernières avancées en informatique quantique en 2024 : le domaine a cessé d’évoluer dans une seule direction et a commencé à avancer dans toutes les directions simultanément. Améliorations matérielles, correction d’erreurs, qubits logiques, efficacité logicielle, normes cryptographiques. Il a commencé à agir moins comme une physique théorique et plus comme une ingénierie avec des étapes vérifiables indépendamment.

Mais soyons réalistes quant aux limites. Willow ne fait pas tourner les applications que sa feuille de route promet. La correction d’erreurs des qubits logiques est encore plus difficile que la détection. L’approche à atomes neutres de Microsoft nécessite une infrastructure laser qui n’existe pas encore à grande échelle. Le premier système entièrement corrigé d’erreurs d’IBM, Starling, ne sera pas prêt avant 2029.

Ce qui a changé, c’est la trajectoire. La question est passée de « la correction d’erreurs à grande échelle est-elle possible ? » à « quelle approche évolue le plus rapidement ? » C’est le passage de la recherche à l’ingénierie, et c’est ce que 2024 a réellement prouvé.
ATOM0,57%
R2-0,3%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler