Donc, j'ai creusé les dernières avancées en informatique quantique 2024 et honnêtement, cette année semblait différente du cycle habituel de hype. Au lieu d'une annonce massive qui s'efface dans l'oubli, nous avons eu trois développements majeurs complètement séparés de différentes entreprises utilisant des approches matérielles totalement différentes. C'est ce genre de pattern qui indique réellement qu'un domaine avance plutôt que de tourner en rond.



Laissez-moi décomposer ce qui s'est réellement passé parce que les détails comptent plus que les gros titres. Google a lancé Willow en décembre — une puce supraconductrice de 105 qubits qui a fait quelque chose que le domaine poursuivait depuis environ 30 ans. Lorsqu'ils ont ajouté plus de qubits, le taux d'erreur a diminué au lieu d'augmenter. Cela semble évident jusqu'à ce que vous réalisiez que c'est l'inverse de ce que la informatique quantique faisait depuis toujours. Plus de qubits signifiait toujours plus de bruit, plus d'erreurs en cascade, moins de fiabilité. Willow a changé cette équation grâce à leur architecture de correction d'erreurs. Ils ont effectué un calcul en moins de cinq minutes qui aurait pris aux superordinateurs classiques 10 septillions d'années pour se terminer. Oui, 10 à la puissance 25. La publication dans Nature est également importante — les précédentes revendications de suprématie quantique ont été légitimement critiquées, donc avoir une méthodologie évaluée par des pairs est en fait significatif.

Mais voici le truc : le test de Willow reste limité. Il prouve que certains calculs sont intractables classiquement, pas que nous résolvons soudainement la découverte de médicaments ou la modélisation climatique demain. La vraie valeur est architecturale — cela prouve que l'informatique quantique à grande échelle avec correction d'erreurs n'est plus simplement théorique.

Ensuite, il y a le travail de Microsoft et Quantinuum d'avril qui a reçu moins de presse mais probablement plus d'attention de la part des chercheurs. Ils ont construit des qubits logiques avec des taux d'erreur 800 fois plus faibles que les qubits physiques sous-jacents. C'est la véritable ligne de division en informatique quantique — les qubits physiques sont bruyants et fragiles, les qubits logiques encodent l'information de manière redondante pour que les erreurs puissent être détectées et corrigées. Le problème a toujours été qu'il fallait tellement de qubits physiques pour construire un qubit logique que le surcoût tuait tout le concept. Une amélioration de 800x change complètement ce calcul.

Microsoft a poussé plus loin en novembre, en travaillant avec Atom Computing pour créer et enchevêtrer 24 qubits logiques en utilisant des atomes d'ytterbium neutres ultrafroids. 99,963 % de fidélité sur les opérations à un seul qubit. Architecture matérielle complètement différente, ce qui est important car cela signifie que plusieurs voies viables fonctionnent simultanément plutôt que de tout miser sur une seule approche. Ensuite, Quantinuum est passé à 50 qubits logiques enchevêtrés en décembre. Ce n'est plus une vision future — c'est le présent.

La contribution d'IBM était plus discrète mais mérite d'être remarquée. Leur processeur Heron R2 a atteint 156 qubits en novembre avec une accélération de 50x sur des charges de travail qui prenaient auparavant 120 heures. Plus important encore, leur nouveau code de correction d'erreurs — le code bivarié bicycle qLDPC — qui atteint la même suppression d'erreurs que les codes conventionnels mais avec 10 fois moins de surcharge. Ce gain d'efficacité est ce qui fait que l'informatique quantique tolérante aux fautes ressemble à un problème d'ingénierie avec une solution plutôt qu'à une impossibilité théorique.

Voici ce qui est souvent négligé : le NIST a publié en août les premières normes de cryptographie post-quantique. Cela compte parce que c'est la première fois qu'un organisme de normalisation majeur reconnaît officiellement que les ordinateurs quantiques capables de briser le chiffrement actuel ne sont plus purement théoriques. Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant. Le délai entre la publication des normes et leur déploiement généralisé est généralement d'une décennie ou plus, donc la course a commencé en 2024.

En regardant collectivement les dernières avancées en informatique quantique 2024, le domaine a essentiellement prouvé qu'il ne se limitait plus à une seule direction et qu'il progressait simultanément dans toutes les dimensions — matériel, correction d'erreurs, qubits logiques, efficacité logicielle. Il est passé d'une physique théorique à une ingénierie avec des étapes vérifiables indépendamment.

Cela signifie-t-il que l'informatique quantique est arrivée ? Pas tout à fait. Willow ne fait pas encore de découverte de médicaments. Les qubits logiques de Quantinuum peuvent détecter les erreurs mais la correction d'erreurs complète est encore en cours. Les systèmes à atomes neutres de Microsoft ont besoin d'infrastructures qui n'existent pas encore à grande échelle. Le processeur Starling entièrement corrigé d'IBM n'est pas prévu avant 2029.

Mais ce qui a vraiment compté en 2024, c'est la preuve que le domaine pouvait progresser dans plusieurs approches simultanément. La question est passée de savoir si l'informatique quantique à correction d'erreurs à grande échelle est possible à celle de savoir quelle approche évolue le plus rapidement et quand les applications pratiques justifient l'investissement. C'est une conversation fondamentalement différente de celle que nous avions il y a quelques années.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler