Donc, j'ai suivi de près l'évolution de l'informatique quantique, et honnêtement, 2024 semblait différent du cycle habituel de hype. D'habitude, on a une grande annonce, un chiffre astronomique qui ne signifie pas grand-chose, puis plus rien pendant un an. Cette fois, c'était vraiment différent — nous avons obtenu trois avancées majeures de sociétés complètement différentes utilisant des approches totalement différentes, toutes en quelques mois d'écart. C'est ce genre de pattern qui indique qu'un domaine est réellement en mouvement.



Laissez-moi décomposer ce qui s'est réellement passé, car les dernières avancées en informatique quantique 2024 n'étaient pas simplement incrémentielles. Google a lancé Willow en décembre — un processeur supraconducteur de 105 qubits qui a fait quelque chose que le domaine poursuivait depuis environ 30 ans. Ils ont ajouté plus de qubits et le taux d'erreur a diminué au lieu d'augmenter. Je sais que cela semble évident, mais c'est vraiment une grande avancée. Le problème principal des systèmes quantiques a toujours été que la montée en échelle signifiait plus de bruit, plus d'instabilité, tout devenait plus chaotique. Willow a brisé ce schéma. Ils ont démontré ce que les chercheurs appellent une opération "sous-seuil", ce qui signifie essentiellement que la montée en échelle aide maintenant au lieu de nuire.

Le benchmark qu'ils ont réalisé en parallèle a attiré beaucoup d'attention — Willow a effectué un échantillonnage de circuits aléatoires en moins de cinq minutes, ce qui prendrait 10 septillions d'années à des superordinateurs classiques. C'est un chiffre réel publié dans Nature avec toute la méthodologie disponible, ce qui est important car les revendications précédentes en informatique quantique ont souvent été critiquées légitimement. Mais voici la partie honnête : ce benchmark reste assez limité. Il prouve que certains calculs sont classiquement intractables, mais cela ne signifie pas que Willow fait déjà de la découverte de médicaments ou de la modélisation climatique. Ce qu'il montre, c'est que l'informatique quantique à grande échelle avec correction d'erreurs n'est plus simplement théorique — c'est une voie d'ingénierie concrète.

Ensuite, il y a eu le travail de Microsoft et Quantinuum, qui a honnêtement reçu moins de couverture grand public mais beaucoup plus d'attention de la part des chercheurs. En avril 2024, ils ont démontré des qubits logiques avec des taux d'erreur 800 fois plus faibles que ceux des qubits physiques dont ils étaient issus. Cette distinction est importante : les qubits physiques sont les unités matérielles bruyantes, les qubits logiques sont construits en combinant plusieurs qubits physiques pour détecter et corriger les erreurs. Le problème a toujours été qu'il fallait tellement de qubits physiques pour construire des qubits logiques que cela semblait impraticable. Une réduction de 800x des erreurs change cette équation.

Microsoft a poussé cela plus loin en novembre avec Atom Computing — ils ont créé et enchevêtré 24 qubits logiques en utilisant des atomes d'ytterbium neutres ultrafroids. Architecture matérielle complètement différente de celle de Google. Ensuite, Quantinuum est passé à 50 qubits logiques en décembre. La signification ici, c'est que plusieurs voies viables vers un calcul quantique tolérant aux fautes progressent simultanément. Ce n'est plus le domaine qui mise tout sur une seule approche.

La contribution d'IBM a été plus discrète mais tout aussi importante pour penser d'où vient réellement l'informatique quantique pratique. Le processeur Heron R2 lancé en novembre compte 156 qubits avec des gains de performance vraiment impressionnants. Leurs taux d'erreur pour la porte à 2 qubits est tombé à 8×10⁻⁴, et des tâches qui prenaient auparavant plus de 120 heures s'exécutent maintenant en environ 2,4 heures. C'est une accélération de 50x pour des calculs à utilité réelle. Ils ont aussi publié un nouveau code de correction d'erreurs appelé le code qLDPC bicentrique qui atteint une suppression d'erreur comparable en utilisant seulement 144 qubits de données au lieu de 3 000 — une réduction de facteur 10 en surcharge. Ce genre de gain d'efficacité rend l'informatique quantique tolérante aux fautes moins un rêve lointain et plus un problème d'ingénierie avec une solution.

Ce que les gens manquent cependant, c'est que les dernières avancées en informatique quantique 2024 comprenaient aussi quelque chose qui n'impliquait pas du tout un processeur quantique. Le NIST a publié en août les premières normes de cryptographie post-quantique. Deux des trois algorithmes proviennent de IBM Research. Cela importe parce que c'est la première fois qu'un organisme de normalisation mondial indique fondamentalement que "les ordinateurs quantiques capables de briser la cryptographie actuelle ne sont plus purement théoriques." Les gouvernements et les entreprises doivent commencer à faire la transition dès maintenant, avant que des ordinateurs quantiques cryptographiquement pertinents n'arrivent réellement. Ce calendrier est généralement d'une décennie ou plus entre la publication de la norme et son déploiement généralisé.

Soyons réalistes sur ce que 2024 a prouvé ou non. Cela n'a pas prouvé que l'informatique quantique est "arrivée" pour des applications pratiques. Willow ne fait pas encore de découverte de médicaments. Ces 50 qubits logiques peuvent détecter des erreurs, mais la correction complète d'erreurs est encore en cours. L'approche à atomes neutres de Microsoft nécessite une infrastructure laser qui n'existe pas encore à grande échelle. Le processeur Starling d'IBM, leur premier système entièrement corrigé d'erreurs, n'est pas prévu avant 2029.

Ce que 2024 a réellement prouvé, c'est plus important : le domaine a cessé de progresser dans une seule direction et a commencé à avancer dans toutes les directions simultanément. Matériel, correction d'erreurs, qubits logiques, efficacité logicielle, normes cryptographiques — tout évolue en même temps. La communauté de recherche a commencé à agir moins comme des physiciens théoriciens et plus comme des ingénieurs avec des jalons vérifiables et reproductibles.

En regardant 2025 et au-delà, les dernières avancées en informatique quantique 2024 préparent essentiellement la prochaine phase. Google travaille vers une opération tolérante aux fautes complète. Microsoft vise 50 à 100 qubits logiques entremêlés dans des déploiements commerciaux dans quelques années. IBM mise sur Starling pour enfin faire le pont entre utilité quantique et avantage quantique pour des problèmes commercialement précieux. La trajectoire est cohérente : la question n’est plus de savoir si l’informatique quantique à correction d’erreurs à grande échelle est possible. 2024 a montré qu’elle l’est pour plusieurs approches. Maintenant, il s’agit de savoir quelle approche se scale le plus rapidement et quand les applications justifiant l’investissement se concrétiseront.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler