Donc, je suis le domaine de l'informatique quantique depuis un certain temps, et ce qui s'est passé à la fin de 2024 était vraiment différent du cycle habituel de hype. Au lieu qu'une seule entreprise publie un communiqué avec des chiffres impossibles puis se taise, nous avons eu trois moments de percée distincts de la part d'équipes complètement différentes utilisant des approches matérielles totalement différentes — tous en quelques mois d'intervalle. C'est là qu'on sait que quelque chose de réel est en train de changer dans le domaine.



Laissez-moi décomposer ce qui a réellement compté. La puce Willow de Google en décembre a attiré l'attention, et à juste titre. Ils ont construit un processeur supraconducteur de 105 qubits et ont prouvé quelque chose que les chercheurs poursuivaient depuis des décennies : ajouter plus de qubits faisait en réalité diminuer le taux d'erreur au lieu de l'augmenter. Cela peut sembler trivial jusqu'à ce que vous réalisiez que c'était le problème central qui freinait tout le domaine. Plus de qubits signifiait plus de bruit, plus d'instabilité, des erreurs en cascade partout. Willow a brisé ce schéma en utilisant leur architecture de correction d'erreurs pour atteindre ce qu'ils appellent une opération sous-seuil. Le benchmark qu'ils ont réalisé en parallèle est devenu instantanément une référence pour tous les médias technologiques — un calcul qui aurait pris 10 septillions d'années à des superordinateurs classiques, terminé en moins de cinq minutes. Hartmut Neven, qui dirige l'équipe quantique de Google, a essentiellement dit que nous avons dépassé le point de rentabilité maintenant. Les détails techniques ont été publiés dans Nature, ce qui est important car les revendications quantiques précédentes ont été critiquées pour leur manque de transparence.

Mais voici la partie honnête : le test de Willow reste limité. Il prouve que certains calculs sont impossibles pour les systèmes classiques, pas que nous réalisons soudainement des simulations de découverte de médicaments. La vraie valeur est architecturale — cela montre que l'informatique quantique à grande échelle corrigée d'erreurs n'est plus une limite théorique. C'est une voie d'ingénierie concrète.

Ce qui a probablement attiré moins l'attention mais qui a réellement impressionné les chercheurs, c'est ce que Microsoft et Quantinuum ont réalisé plus tôt en 2024. Ils ont créé des qubits logiques avec des taux d'erreur 800 fois plus faibles que ceux des qubits physiques sous-jacents. Cette distinction entre qubits physiques et logiques est essentielle. Les qubits physiques sont les unités matérielles bruyantes. Les qubits logiques combinent plusieurs qubits physiques de manière redondante pour que les erreurs puissent être détectées et corrigées sans détruire toute la computation. Le problème était que les qubits logiques nécessitaient tellement de qubits physiques que la surcharge rendait cela impraticable. Une amélioration de 800x change complètement ce calcul.

Microsoft a poussé plus loin avec Atom Computing en novembre, créant et enchevêtrant avec succès 24 qubits logiques en utilisant des atomes d'ytterbium neutres ultrafroids — atteignant une fidélité de 99,963 % sur les opérations à un seul qubit et 99,56 % sur les portes à deux qubits. Ensuite, Quantinuum est passé à 50 qubits logiques enchevêtrés. L'importance ici est que plusieurs architectures matérielles complètement différentes font toutes des progrès simultanément. Nous ne misons plus tout sur une seule approche. Google utilise des transmons supraconducteurs, Microsoft utilise des atomes neutres, et le domaine progresse dans toutes ces directions.

La contribution d'IBM en 2024 était plus discrète mais tout aussi importante pour quiconque pense à une déploiement pratique. Le processeur Heron R2 a atteint 156 qubits avec des taux d'erreur de porte 2Q à 8×10⁻⁴ et peut exécuter des circuits avec jusqu'à 5 000 opérations de porte à deux qubits. Les charges de travail qui prenaient plus de 120 heures s'exécutent maintenant en 2,4 heures — une accélération d'environ 50x. IBM a également terminé leur défi 100×100, exécutant un circuit de 100 qubits à une profondeur de 100, ce qui compte comme un calcul à l'échelle utilitaire que l'on ne peut pas forcer par force brute classiquement. Plus techniquement significatif, leur article dans Nature sur le code qLDPC bicentenaire, qui atteint une suppression d'erreurs en utilisant 144 qubits de données au lieu des 3 000 requis par les codes de surface conventionnels. C'est un gain d'efficacité de 10x, et c'est ce genre de chose qui fait que l'informatique quantique tolérante aux fautes ressemble à un problème d'ingénierie solvable plutôt qu'à un rêve lointain.

Il y a aussi un quatrième développement dont personne ne parle vraiment. NIST a publié en août 2024 les premières normes de cryptographie post-quantique — des algorithmes conçus pour résister aux attaques de futurs ordinateurs quantiques. Pourquoi inclure cela dans les dernières avancées en informatique quantique 2024 ? Parce que c'est la première reconnaissance officielle par un organisme de normalisation mondial que les ordinateurs quantiques cryptographiquement pertinents ne sont plus purement théoriques. Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant, avant que ces machines n'arrivent. Le calendrier de déploiement est généralement de dix ans ou plus, donc cette horloge tourne. Pour l'infrastructure blockchain et des actifs numériques, cela est directement pertinent — chiffrement de portefeuille, sécurité des transactions, contrats intelligents, tous nécessitent finalement des remplacements résistants à la quantique.

Laissez-moi être clair sur ce que 2024 a réellement prouvé versus ce qu'il n'a pas. Willow ne fait pas encore fonctionner d'applications de découverte de médicaments. Les 50 qubits logiques de Quantinuum peuvent détecter des erreurs mais la correction complète d'erreurs est encore en cours. L'approche à atomes neutres de Microsoft nécessite une infrastructure laser qui n'existe pas encore à grande échelle. Le Heron R2 d'IBM est le système le plus pratiquement déployé avec des clients d'entreprise qui exécutent réellement des charges de travail, mais le premier processeur entièrement corrigé d'erreurs d'IBM, Starling, n'est pas prévu avant 2029.

Ce qui importe davantage, c'est que le domaine a cessé de progresser dans une seule direction et a commencé à avancer dans toutes les directions simultanément. Matériel, correction d'erreurs, qubits logiques, efficacité logicielle, normes cryptographiques — tout progresse en même temps. La communauté de recherche est passée du mode physique théorique au mode ingénierie, avec des jalons pouvant être vérifiés et reproduits indépendamment. C'est la véritable histoire derrière les dernières avancées en informatique quantique 2024.

La trajectoire 2025-2026 devient déjà claire. Google travaille à une opération tolérante aux fautes au-delà du sous-seuil. Microsoft vise 50-100 qubits logiques enchevêtrés dans des déploiements commerciaux avec des applications en science des matériaux en tête. Le processeur Starling d'IBM vise 100 millions de portes sur 200 qubits corrigés d'erreurs en utilisant le schéma de code Gross. Le domaine ne se demande plus si l'informatique quantique corrigée d'erreurs à grande échelle est possible — 2024 a prouvé que oui, avec plusieurs approches matérielles. La question maintenant est de savoir quelle approche évolue le plus rapidement et quand les applications justifient l'investissement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler