Je viens de passer les dernières heures à analyser ce qui s’est réellement passé dans le domaine de l’informatique quantique l’année dernière, et honnêtement, 2024 semblait différent de tous les cycles de hype que nous avons vus auparavant. Pas à cause d’une seule annonce, mais parce que trois avancées distinctes ont eu lieu en quelques mois — chacune provenant d’une entreprise différente utilisant des approches matérielles complètement différentes. Lorsqu’un tel phénomène se produit simultanément, cela signifie généralement que le domaine progresse réellement, et non qu’il recycle la même histoire.



Laissez-moi décomposer les dernières avancées en informatique quantique 2024 qui comptent vraiment.

Le Willow de Google est sorti début décembre, et c’est celui dont tout le monde parle. Un processeur supraconducteur de 105 qubits, construit à l’UC Santa Barbara. La véritable réussite n’était pas seulement la vitesse — c’était la preuve de quelque chose que les chercheurs poursuivent depuis 30 ans. Lorsque Google a ajouté plus de qubits à Willow, le taux d’erreur a diminué au lieu d’augmenter. C’est l’opposé de ce qui se passait habituellement. Plus de qubits signifiait toujours plus de bruit, plus d’instabilité, des erreurs en cascade. Willow a brisé ce schéma. Ils l’ont appelé une opération « en dessous du seuil », et la référence était incroyable : un calcul d’échantillonnage de circuit aléatoire qui prendrait 10²⁵ années à un superordinateur classique, Willow l’a réalisé en moins de cinq minutes. Publié dans Nature aussi, ce qui est important car les revendications précédentes en matière de quantique ont été à juste titre critiquées.

Honnêtement, cependant, Willow reste limité dans ce qu’il peut faire. Il a prouvé que certains calculs sont intractables classiquement, mais il ne fait pas encore de découverte de médicaments ou de modélisation climatique. La vraie valeur est architecturale — cela montre que l’informatique quantique à grande échelle avec correction d’erreurs n’est plus simplement une théorie.

Ensuite, il y a le travail de Microsoft et Quantinuum, qui a reçu moins de presse mais probablement plus d’attention de la part des spécialistes du domaine. En avril 2024, ils ont démontré des qubits logiques avec des taux d’erreur 800 fois plus faibles que les qubits physiques dont ils étaient issus. C’est la distinction qui compte : les qubits physiques sont les unités matérielles bruyantes, les qubits logiques sont construits en combinant plusieurs qubits physiques avec une redondance pour détecter et corriger les erreurs. La surcharge a toujours été le problème — il fallait tellement de qubits physiques pour construire un qubit logique que cela semblait impraticable. Une amélioration de 800x change cette équation.

Microsoft a continué à pousser cela. En novembre, en collaboration avec Atom Computing, ils ont enchaîné 24 qubits logiques en utilisant des atomes d’ytterbium neutres ultrafroids — une approche matérielle complètement différente de celle de Google. C’est là l’intuition clé : plusieurs voies viables vers un informatique quantique tolérante aux fautes progressent en même temps. Le domaine ne mise plus tout sur une seule architecture.

La contribution d’IBM a été plus discrète mais tout aussi importante. Le processeur Heron R2 en novembre — 156 qubits, et voici ce qui est significatif : leurs taux d’erreur pour la porte 2Q ont chuté à 8×10⁻⁴, et les charges de travail qui prenaient plus de 120 heures sur leurs anciens systèmes s’exécutent maintenant en 2,4 heures. Environ 50 fois plus vite. Ils ont aussi publié un nouveau code de correction d’erreurs appelé « bicycle bivarié » qLDPC, qui réduit la surcharge pour encoder des qubits logiques par un facteur 10. C’est ce genre de percée en efficacité qui rend l’informatique quantique tolérante aux fautes moins une science-fiction lointaine et plus un problème d’ingénierie avec une voie de solution.

Puis, le NIST a publié en août 2024 des standards de cryptographie post-quantique, et celui-ci passe inaperçu pour la plupart. Ils ont officiellement publié les premiers algorithmes conçus pour résister aux attaques des ordinateurs quantiques. ML-KEM et ML-DSA proviennent des cryptographes de IBM Research. Pourquoi cela importe-t-il ? Parce que c’est la première fois qu’un organisme de normalisation mondial reconnaît officiellement que les ordinateurs quantiques capables de casser le chiffrement actuel ne sont plus purement théoriques. Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant, avant que ces machines n’arrivent. La durée de cette transition est généralement d’une décennie ou plus, donc le NIST a en gros lancé le compte à rebours.

Pour tous ceux qui suivent la blockchain et les actifs numériques, cela est directement pertinent. Le chiffrement actuel protégeant les portefeuilles et les transactions devra finir par adopter des alternatives résistantes aux quantiques. Cette transition est désormais officiellement en cours.

Le constat honnête : les dernières avancées en informatique quantique 2024 ne signifient pas que l’informatique quantique a « arrivé » dans le sens de résoudre des problèmes réels à grande échelle. Willow ne fait pas encore de découverte de médicaments. Les 50 qubits logiques de Quantinuum peuvent détecter des erreurs, mais la correction d’erreurs complète reste plus difficile. L’approche à atomes neutres de Microsoft nécessite une infrastructure laser qui n’existe pas encore à grande échelle. Le Starling d’IBM, leur premier système entièrement corrigé d’erreurs, n’arrivera pas avant 2029.

Mais ce que 2024 a réellement prouvé, c’est plus important que ce qu’il n’a pas fait. Le domaine a cessé d’évoluer dans une seule direction pour commencer à progresser partout simultanément — matériel, correction d’erreurs, qubits logiques, efficacité logicielle, standards cryptographiques. Il est passé d’une discipline purement théorique à une discipline d’ingénierie avec des jalons vérifiables. C’est la vraie avancée. La question n’est plus « est-ce possible ? » mais « quelle approche évolue le plus rapidement ? » C’est une conversation fondamentalement différente. Si vous suivez comment le quantique et l’IA transforment l’infrastructure financière, ces développements sont la base qui change tout en matière de sécurité des actifs numériques dans les années à venir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler