Si vous avez suivi les avancées en informatique quantique ces dernières années, 2024 a vraiment semblé différent. Pas simplement un autre communiqué de presse sur des chiffres plus grands — en réalité trois annonces majeures distinctes de différentes entreprises utilisant des approches complètement différentes, toutes survenues en quelques mois. Ce genre de progrès simultané à travers différentes architectures matérielles indique généralement que le domaine avance réellement plutôt que de simplement tourner en boucle sur le battage médiatique.



Laissez-moi décomposer ce qui s’est réellement passé, car l’histoire honnête est plus intéressante que les gros titres.

Le moment le plus important est arrivé en décembre lorsque Google a lancé Willow — un processeur supraconducteur de 105 qubits qui a fait quelque chose que le domaine poursuivait depuis presque trente ans. En ajoutant plus de qubits, le taux d’erreur a diminué au lieu d’augmenter. C’est la percée. Pendant des décennies, l’informatique quantique avait ce problème fondamental : faire évoluer le système, ajouter plus de qubits, et tout devient plus bruyant et moins fiable. Willow a prouvé qu’on pouvait inverser cette dynamique. Ils l’ont appelé « opération en dessous du seuil » — le point où la mise à l’échelle aide réellement.

Le benchmark qu’ils ont publié en même temps est devenu instantanément célèbre : un calcul qu’il faudrait 10 septillions d’années à l’ordinateur le plus puissant d’aujourd’hui pour réaliser, terminé en moins de cinq minutes. Mais voici ce que les gens manquent — c’est un benchmark étroit prouvant l’intractabilité classique pour cette tâche spécifique, pas une preuve que le système peut déjà faire de la découverte de médicaments ou de la modélisation climatique. La vraie valeur de Willow est architecturale. Elle a montré que l’informatique quantique à grande échelle avec correction d’erreurs n’est plus simplement théorique.

Ce qui m’intéresse davantage d’un point de vue pratique, c’est ce que Microsoft et Quantinuum ont démontré plus tôt cette année-là. En avril 2024, ils ont montré des qubits logiques avec des taux d’erreur 800 fois plus faibles que les qubits physiques sous-jacents. Cela importe parce que tout le jeu de l’informatique quantique consiste à construire des qubits logiques — plusieurs qubits physiques travaillant ensemble pour encoder l’information de manière redondante afin que les erreurs puissent être corrigées sans détruire le calcul. Pendant des années, le surcoût rendait cela impraticable. Une amélioration de 800x change complètement cette équation.

Ensuite, ils ont continué à pousser. En novembre, Microsoft, en collaboration avec Atom Computing, a enchaîné 24 qubits logiques entremêlés à l’aide d’atomes neutres ultrafroids — une approche matérielle totalement différente de la conception supraconductrice de Google. C’est la clé : plusieurs voies viables vers un calcul quantique tolérant aux fautes progressent simultanément. Le domaine a arrêté de tout miser sur une seule approche.

Quantinuum est allé plus loin en décembre avec 50 qubits logiques entremêlés. La contribution d’IBM a été plus discrète mais tout aussi significative — leur processeur Heron R2 a atteint un gain de vitesse de 50x sur certains workloads et a démontré ce qu’ils appellent une « computation à échelle utilitaire ». Plus important encore, ils ont publié des recherches sur un nouveau code de correction d’erreurs qui réduit le surcoût en qubits physiques de 10x par rapport aux approches conventionnelles. C’est ce genre de percée en efficacité qui fait que l’informatique quantique tolérante aux fautes ressemble à un problème d’ingénierie avec une voie de solution définie plutôt qu’à un rêve lointain.

Le quatrième développement dont personne ne parle : le NIST a officiellement publié en août 2024 les premières normes de cryptographie post-quantique. C’est la reconnaissance concrète que les ordinateurs quantiques capables de briser le chiffrement actuel ne sont plus purement théoriques. Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant, avec des délais de déploiement généralement d’une décennie ou plus. Pour l’infrastructure blockchain et des actifs numériques, cela est directement pertinent — les schémas de chiffrement des portefeuilles et des transactions devront éventuellement adopter des alternatives résistantes aux attaques quantiques.

Alors, quel est le bilan honnête ? L’informatique quantique n’a pas « arrivé » au sens de résoudre à grande échelle des problèmes du monde réel pour l’instant. Le benchmark de Willow est étroit. Les 50 qubits logiques de Quantinuum peuvent détecter des erreurs mais la correction complète est encore en cours de développement. L’approche à atomes neutres de Microsoft nécessite une infrastructure qui n’existe pas encore à grande échelle. Le processeur Starling entièrement corrigé d’IBM n’est pas prévu avant 2029.

Mais ce que 2024 a réellement prouvé, c’est que le domaine a cessé de progresser dans une seule direction et a commencé à avancer dans toutes les directions simultanément. Matériel, correction d’erreurs, qubits logiques, efficacité logicielle, normes cryptographiques — tous progressent en parallèle. La communauté de recherche a commencé à agir moins comme des physiciens théoriques et plus comme des ingénieurs avec des jalons vérifiables indépendamment.

Depuis, nous avons vu l’algorithme Quantum Echoes démontré sur Willow en 2025 — la première advantage quantique vérifiable pour un problème de calcul réel au-delà des benchmarks. Microsoft a présenté leur puce Majorana 1, représentant un troisième pari architectural utilisant des qubits topologiques. Ces dernières avancées en informatique quantique montrent que la trajectoire est cohérente : la question est passée de « est-ce possible ? » à « quelle approche évolue le plus rapidement et quand les applications justifient-elles l’investissement ? »

Pour quiconque suit la façon dont l’informatique quantique et l’IA transforment l’infrastructure financière et la sécurité des actifs numériques, la convergence s’accélère. Les avancées de 2024 en informatique quantique ont établi plusieurs voies viables vers des systèmes tolérants aux fautes. Il s’agit maintenant d’une course entre différentes approches matérielles et d’une question de calendrier. Cela a plus d’importance pour la sécurité blockchain que ce que l’on pense.
ATOM-1,47%
CHIP-5,42%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler