Je viens de réaliser quelque chose qui mérite d'attention si vous suivez où se produisent réellement les changements d'infrastructure. L'espace de l'informatique quantique a connu une année 2024 exceptionnellement chargée — et je parle d'une véritable activité, pas du cycle habituel de hype. Trois avancées distinctes de différentes entreprises utilisant des approches complètement différentes ont toutes été réalisées en quelques mois. C'est le genre de pattern qui indique généralement qu'un domaine progresse réellement plutôt que de recycler la même narration.



Laissez-moi décomposer ce qui s'est réellement passé et pourquoi cela importe pour quiconque observe la convergence de la technologie quantique et de l'infrastructure numérique.

Google a lancé Willow en décembre — un processeur supraconducteur de 105 qubits, construit à l'UC Santa Barbara. Le titre semble standard jusqu'à ce que vous compreniez ce qu'ils ont réellement démontré. En ajoutant plus de qubits, le taux d'erreur a diminué au lieu d'augmenter. C'a été le problème central des systèmes quantiques pendant près de 30 ans. Plus de qubits signifiaient toujours plus de bruit, plus d'erreurs en cascade, moins de fiabilité. Willow a inversé cette relation. Ils ont appelé cela une opération "sous le seuil" — la preuve architecturale que la mise à l'échelle aide réellement plutôt que de nuire.

Le benchmark qu'ils ont publié en parallèle a attiré instantanément l'attention : un calcul d'échantillonnage de circuit aléatoire réalisé en moins de cinq minutes, alors qu'il faudrait 10 septillions d'années à des superordinateurs classiques. Mais voici la partie honnête — c'est encore un cas de test limité. Cela prouve que certains calculs sont intrinsèquement intractables classiquement sur cette puce. Cela ne signifie pas que Willow exécute déjà la découverte de médicaments ou des modèles climatiques. Ce que cela montre, c'est que l'informatique quantique à grande échelle avec correction d'erreurs n'est plus une théorie. C'est une voie d'ingénierie qui fonctionne.

Pendant ce temps, Microsoft et Quantinuum avaient déjà fait avancer la barre en avril avec quelque chose qui a reçu moins de presse mais plus d'attention de la part des chercheurs. Ils ont démontré des qubits logiques avec des taux d'erreur 800 fois plus faibles que les qubits physiques dont ils étaient issus. C'est la vraie ligne de division dans le progrès quantique. Les qubits physiques sont des unités matérielles bruyantes. Les qubits logiques combinent plusieurs qubits physiques pour encoder l'information de manière redondante, afin que les erreurs puissent être détectées et corrigées. La surcharge a toujours rendu cela peu pratique. Une amélioration de 800x change complètement ce calcul.

Ensuite, Microsoft a étendu cela en novembre, en travaillant avec Atom Computing pour créer et enchevêtrer 24 qubits logiques en utilisant des atomes de ytterbium neutres ultrafroids. Une architecture matérielle totalement différente de celle de Google. La fidélité des portes à un qubit a atteint 99,963 %. Les opérations à deux qubits à 99,56 %. En décembre, Quantinuum avait porté cela à 50 qubits logiques enchevêtrés. C'est le genre de pattern de progrès qui compte — plusieurs voies viables progressant simultanément plutôt que le domaine misant tout sur une seule approche.

La contribution d'IBM a été plus discrète mais tout aussi significative si vous pensez à l'émergence pratique de l'informatique quantique. Le processeur Heron R2 en novembre : 156 qubits, erreurs de portes à 8×10⁻⁴, exécution de circuits avec jusqu'à 5 000 portes à deux qubits. Des charges de travail qui prenaient plus de 120 heures s'exécutaient en 2,4 heures. C'est un progrès mesuré, reproductible — le genre qui est réellement déployé chez les clients d'entreprise.

Mais le résultat d'IBM le plus techniquement significatif était leur nouveau code de correction d'erreurs. La correction d'erreurs quantique conventionnelle nécessite environ 3 000 qubits physiques pour encoder un seul qubit logique fiable. Le code qLDPC bivarié d'IBM atteint une suppression d'erreur comparable avec seulement 288 qubits au total. C'est un gain d'efficacité de 10x. Soudain, l'informatique quantique tolérante aux fautes ressemble moins à un objectif lointain et plus à un problème d'ingénierie avec une solution définie.

Voici ce qui a rendu 2024 vraiment différent : le domaine a cessé de progresser dans une seule direction pour commencer à progresser dans toutes les directions simultanément. Améliorations matérielles, avancées en correction d'erreurs, jalons de qubits logiques, efficacité logicielle, normes cryptographiques. Il est passé de la physique théorique à une discipline d'ingénierie.

Du côté de la cryptographie — et c'est directement pertinent pour l'infrastructure blockchain — le NIST a publié officiellement en août 2024 les normes de cryptographie post-quantique. Les algorithmes ML-KEM et ML-DSA conçus pour résister aux attaques quantiques. Ce n'était pas un exercice académique. C'était la première reconnaissance concrète que des ordinateurs quantiques capables de briser le chiffrement actuel ne sont plus purement théoriques. Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant. Le calendrier de déploiement, du publication de la norme à l'adoption généralisée, dure généralement une décennie ou plus. Le NIST a effectivement lancé cette horloge en 2024.

Pour la sécurité des actifs numériques, cela a une importance. Le chiffrement asymétrique actuel protégeant les portefeuilles, transactions et contrats intelligents devra éventuellement évoluer vers des alternatives résistantes aux qubits quantiques. Nous ne parlons pas d'une menace immédiate — mais la transition de l'infrastructure est désormais officiellement en cours.

L'évaluation honnête : l'informatique quantique n'a pas "arrivé" en 2024. Willow n'exécute pas encore d'applications commerciales. Les qubits logiques peuvent détecter les erreurs, mais la correction d'erreurs complète est encore en cours. Les systèmes à atomes neutres nécessitent une infrastructure laser sophistiquée qui n'existe pas à grande échelle. Mais ce que 2024 a prouvé, c'est plus important que ce qu'il n'a pas. Les dernières avancées en informatique quantique en 2024 ont établi que des systèmes quantiques à correction d'erreurs à grande échelle sont possibles avec plusieurs approches matérielles. La question est passée de "est-ce possible ?" à "quelle approche évolue le plus rapidement et quand les applications justifient-elles l'investissement ?"

En regardant la trajectoire, la prochaine étape pour Google est d'atteindre une opération tolérante aux fautes au-delà des démonstrations de benchmark. Microsoft vise 50 à 100 qubits logiques enchevêtrés dans des déploiements commerciaux dans quelques années. Le processeur Starling d'IBM, prévu pour 2029, vise 100 millions de portes sur 200 qubits corrigés d'erreurs. La direction constante pour ces trois : nous sommes passés de la phase théorique à la phase d'ingénierie. C'est ce qui compte maintenant.

Pour quiconque suit la convergence de l'informatique quantique et de l'infrastructure numérique, 2024 a été l'année où le domaine est passé de la spéculation à un progrès mesurable. C'est un aspect à suivre de près.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler