Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Rapport détaillé de 10 000 mots sur la sécurité quantique de la blockchain : une analyse panoramique des menaces de l'informatique quantique, de l'état actuel de la sécurité quantique, des recommandations de préparation et de la projection de la feuille de route
Auteur original : Bob, chercheur chez Web3Caff Research
Table des matières
Introduction théorique au calcul quantique
La mécanique quantique (Quantum mechanics) est la base théorique du calcul quantique. Cette théorie académique a vu le jour au début du XXe siècle et constitue un élément très important de la physique moderne. Le terme « mécanique quantique » provient à l’origine de l’allemand « Quantenmechanik », créé par un groupe de physiciens allemands et autrichiens à l’université de Göttingen (University of Göttingen). L’apparition de la mécanique quantique visait à expliquer des systèmes que la « physique classique » n’arrivait pas à expliquer. La « physique classique » correspond à la compréhension initiale des lois fondamentales de la nature, notamment en mécanique, en électromagnétisme, en thermodynamique, etc. Toutefois, dans le monde microscopique, la théorie de la physique classique rencontre des limites ; des théories modernes de la physique comme la mécanique quantique ont alors émergé. Contrairement à la mécanique classique, la mécanique quantique décrit le comportement de la matière à l’aide de « probabilités », fournissant ainsi un tout nouveau cadre théorique au monde microscopique.
Dire que « Dieu jette les dés » pour décrire la physique classique et la physique quantique est particulièrement approprié. Il y a plus d’un siècle, les scientifiques de l’époque considéraient que tout ce que Dieu gouvernait existait de manière « déterministe ». Le légendaire physicien Albert Einstein (désigné ci-après comme Einstein) a d’ailleurs remis en question l’aléatoire quantique avec la formule « Dieu ne joue pas aux dés ». L’école quantique rétorquait : Dieu ne fait pas que lancer les dés, il les jette parfois à des endroits que nous ne pouvons pas voir. En tant que partisan de l’hypothèse de l’incomplétude de la mécanique quantique à cette époque, Einstein considérait que l’univers existe de façon objective et qu’il adhère au « déterminisme physique » : tous les phénomènes sont essentiellement régis par la nécessité et il n’y a pas de « véritable hasard ». Quant au physicien danois Niels Bohr (Niels Henrik David Bohr, désigné ci-après comme Bohr), représentant de la nouvelle école dite de la « théorie des probabilités », il soutenait que la nature du monde est « probabiliste » et a proposé la « théorie de la complémentarité » (la nature particulaire et la nature ondulatoire sont complémentaires : elles ne peuvent pas être mesurées précisément en même temps, et sont liées au principe d’incertitude). Ce débat académique sur la mécanique quantique a duré depuis 1925 pendant près de 10 ans. Dans les décennies suivantes, diverses expériences ont progressivement confirmé la position de Bohr. Même si Einstein a été, à un moment, un critique de la « théorie des probabilités » au sein de la mécanique quantique, il a aussi, indirectement, contribué au développement de la théorie quantique. Plus de cent ans plus tard, la physique quantique s’est profondément intégrée à tous les aspects de la technologie moderne — des dispositifs électroniques à semi-conducteurs jusqu’à l’imagerie médicale — et le grand public a fini par accepter, non sans retard, l’idée que le « fondement » du monde repose sur le quantique.
Débat Bohr-Einstein, source de l’image : wikipedia
Le calcul quantique utilise des règles non traditionnelles de la mécanique quantique pour effectuer des calculs. Pour le distinguer du calcul classique avec des mots que tout le monde peut comprendre : dans le calcul classique, résoudre un problème revient à la manière d’un détective qui suit des indices un par un, étape par étape ; tandis que dans le calcul quantique, on envoie en même temps de nombreux détectives, qui explorent simultanément des indices dans plusieurs dimensions, et dont les indices peuvent interagir entre eux. Ainsi, il est possible de trouver plus rapidement la réponse à un problème.
On sait que les ordinateurs classiques ne travaillent qu’avec des binaires 0 ou 1, alors qu’en calcul quantique, il est possible d’avoir des « états de superposition » qui se trouvent simultanément en 0 et en 1, jusqu’à ce que « la mesure » permette de les déterminer. En termes simples : dans un ordinateur classique, chaque bit d’information ne peut être que 0 ou 1, comme l’interrupteur d’une lampe : éteint = 0, allumé = 1. On voit soit la lumière allumée, soit éteinte : il n’existe pas d’autre état. Dans le calcul quantique, cette lampe peut être à la fois à moitié allumée et à moitié éteinte (état de superposition), jusqu’à ce que vous alliez la regarder : à ce moment-là, elle « décide » d’être allumée ou éteinte. Les états de superposition en quantique proviennent de la nature même de la physique : ce que nous observons dans la nature fonctionne ainsi. Par exemple, l’électron Electron (l’une des particules élémentaires qui constituent la matière) et le photon Photon (l’unité fondamentale de la lumière et de l’ensemble du rayonnement électromagnétique) sont, avant d’être mesurés, effectivement dans plusieurs états possibles.
Même si le monde quantique semble très différent de la réalité que nous ressentons au quotidien, des expériences classiques ont validé son existence — c’est l’expérience célèbre des « doubles fentes » (Double-slit Experiment). Dans l’expérience, les scientifiques font passer des électrons ou des photons à travers un écran muni de deux fentes. Ensuite, sur l’écran de détection situé derrière, ils enregistrent leurs positions. Le résultat montre que lorsque les électrons ou les photons passent simultanément par les deux fentes, des franges d’interférence apparaissent sur l’écran — comme si les particules empruntaient deux chemins à la fois, tout en « s’interférant » entre elles. Plus étonnant encore : si vous essayez d’observer par quelle fente ils passent réellement, les franges d’interférence disparaissent ; il ne reste plus que deux pics distincts, comme si les particules ne pouvaient emprunter qu’un seul chemin. Cette expérience démontre que tant qu’un quantum n’est pas observé, il est réellement dans un état de superposition, c’est-à-dire que plusieurs états possibles coexistent.
Pour mieux comprendre, on peut l’imaginer comme un lancer de pièce. Dans le monde quantique, la pièce en rotation dans l’air n’est pas en « face » ou en « pile » : elle est dans un état où face et pile existent simultanément. Ce n’est que lorsque vous la récupérez et que vous la regardez qu’elle « décide » si c’est face ou pile. Le principe des états de superposition quantiques ressemble à cela : avant l’observation, une particule peut être simultanément dans plusieurs états possibles. C’est un phénomène impossible à expliquer avec la physique classique, et c’est précisément pour cela que la mécanique quantique est considérée comme l’une des directions de percée les plus imaginatives et transdisciplinaires pour le futur.
Expérience des doubles fentes Double Slit Experiment, source de l’image : Science Notes
En bref, un ordinateur quantique est un nouvel ordinateur conçu pour effectuer des calculs, basé sur les principes de la physique quantique. Contrairement aux ordinateurs traditionnels qui ne peuvent stocker et traiter que des bits (Bit : unité minimale d’information, qui ne représente que 0 et 1), les ordinateurs quantiques utilisent des « qubits » (Qubit) pour stocker des données. Comme les qubits peuvent représenter plusieurs états en même temps — c’est exactement la « superposition » décrite plus haut —, lorsque l’on dispose de plusieurs qubits, ils combinent des possibilités qui croissent de façon exponentielle. En termes simples : chaque qubit supplémentaire multiplie l’espace de calcul. C’est aussi pour cette raison que, dans certains domaines spécifiques — casser des mots de passe complexes, optimiser de gigantesques problèmes combinatoires, simuler des structures moléculaires, etc. — les ordinateurs quantiques pourraient offrir un avantage potentiel considérable par rapport aux ordinateurs classiques.
Principes du calcul quantique (superposition, intrication, interférence)
Pour comprendre le fonctionnement du calcul quantique, il faut d’abord maîtriser un tout nouveau vocabulaire. Ces principes reposent sur 3 concepts importants : la superposition (Superposition), l’intrication (Entanglement) et la décohérence (Decoherence).
Dans le texte précédent, on a mentionné que les ordinateurs quantiques utilisent des qubits (Qubit) pour stocker et traiter l’information. Or, le qubit est une unité spéciale : il peut représenter simultanément un ensemble d’états qui ne se limitent pas à 0 ou à 1. Cette caractéristique s’appelle la superposition (Superposition).
En quantique, on peut ajouter plusieurs états quantiques pour former un autre état quantique valide, et inversement, on peut décrire un seul état quantique comme la combinaison de deux états ou plus différents. La propriété de superposition donne aux ordinateurs quantiques des capacités de traitement parallèle, leur permettant d’exécuter simultanément des millions d’opérations de calcul. Prenons un exemple simple : dans un environnement de calcul classique, avec 10 qubits, on ne peut représenter qu’un seul état à la fois (par exemple 0000011010), alors qu’un ordinateur quantique avec 10 qubits peut représenter simultanément jusqu’à 1024 états possibles (2 à la puissance 10). Par comparaison, alors que l’ordinateur classique ne peut représenter qu’un seul état à la fois, l’ordinateur quantique peut tester plus de 1000 états à la fois. La « superposition » des qubits est la caractéristique la plus essentielle du calcul quantique.
Le deuxième concept important est l’intrication quantique (Entanglement). En termes simples : lorsque deux qubits (Qubit) sont « intriqués », peu importe leur distance, si vous modifiez l’état de l’un, l’autre subit immédiatement la même modification correspondante. C’est la partie la plus incroyable de la mécanique quantique, comme s’il existait entre eux une forme de lien mystérieux invisible. Ce phénomène existe dans des particules microscopiques telles que les photons (Photon) et les électrons (Electron). Quand plusieurs particules interagissent, elles forment un système global : comme si plusieurs danseurs se tenaient par la main et tournaient ensemble. Si vous poussez l’un des danseurs, les autres bougent aussi.
Prenons un exemple de la vie quotidienne pour rendre cela plus intuitif : imaginez que vous et votre ami, dans une autre ville, tenez chacun une pièce magique, et que ces deux pièces soient « intriquées ». Si vous retournez votre pièce et qu’elle tombe sur face, instantanément la pièce de votre ami devient face aussi, quelle que soit la distance entre vous. L’intrication quantique est précisément l’une des caractéristiques clés qui permettent à un ordinateur quantique d’avoir un potentiel de calcul parallèle très puissant et de transmission d’information, et c’est un phénomène impossible à reproduire avec un ordinateur classique.
L’intrication quantique joue un rôle extrêmement important dans le calcul quantique et la communication quantique. Elle permet à un ordinateur quantique de résoudre plus rapidement des problèmes complexes. Sans intrication quantique, un ordinateur quantique ne pourrait pas faire en sorte que les qubits (Qubit) travaillent de concert, perdant ainsi l’avantage quantique. La caractéristique « états multi-particules » de l’intrication quantique permet à plusieurs qubits de coopérer, et grâce aux algorithmes, l’ordinateur peut réaliser une accélération de type exponentiel.
Le troisième concept important est la décohérence quantique (Decoherence). La décohérence (Decoherence) signifie qu’une fois que le qubit est perturbé par l’environnement extérieur, les caractéristiques quantiques initiales — comme la superposition et l’intrication — disparaissent progressivement. C’est comme une pièce qui tourne dans l’air : si quelqu’un la touche légèrement, elle retombe instantanément en face ou en pile. Ainsi, l’un des problèmes centraux d’un ordinateur quantique consiste à prolonger au maximum la stabilité de cet « état de rotation », afin d’assurer que le calcul se déroule correctement. Par exemple, lorsqu’on fabrique des qubits (Qubit) en superposition sur une plateforme matérielle, le bruit environnemental provoque la décohérence des qubits (Qubit). Il faut généralement construire des conditions physiques extrêmes, comme des environnements à très basse température et sous vide.
La première étape du calcul quantique consiste en « l’initialisation ». Son objectif est d’ajuster l’état de ses qubits (Qubit) d’un état aléatoire vers un état fondamental (correspondant à l’état d’énergie minimale), afin de garantir que l’algorithme quantique s’exécute dans les états requis. Ensuite, grâce à une série d’opérations de « portes quantiques » (analogues aux portes logiques d’un ordinateur), on les fait évoluer, jusqu’à obtenir finalement le résultat de la mesure. Cependant, l’état quantique est extrêmement fragile : les perturbations microscopiques de l’environnement extérieur détruisent la superposition et l’intrication quantique. Ainsi, un ordinateur quantique a besoin d’un support environnemental externe très strict.
C’est pour cela que le calcul quantique possède un potentiel énorme dans de nombreux domaines : cryptographie (casser des systèmes de chiffrement), science des matériaux (simuler et analyser les comportements des matériaux), intelligence artificielle et prévision météorologique, etc. À mesure que le calcul quantique progresse, le monde futur pourrait être transformé de façon significative par le calcul quantique.
Histoire de l’évolution des ordinateurs quantiques
Après avoir compris les concepts de base du calcul quantique, intéressons-nous maintenant à l’histoire des ordinateurs quantiques.
Les ordinateurs quantiques apparaissent toujours d’une manière mystérieuse dans les actualités, car la « suprématie quantique » est l’une des principales compétitions scientifiques entre les pays. La fabrication d’ordinateurs quantiques n’a que plus de 20 ans d’histoire, mais avec les progrès du temps, l’utilisation d’ordinateurs quantiques s’est progressivement ouverte au grand public. Le premier concept d’équipements de calcul quantique a été proposé en 1969 par le physicien israélo-américain Stephen J. Wiesner ; en 1981, Richard Phillips Feynman a proposé l’idée d’utiliser le quantique pour le calcul universel, posant ainsi une base théorique pour les premières formes d’ordinateurs quantiques. En 1994, Peter Shor a proposé l’algorithme de Shor célèbre, ce qui a permis au monde de comprendre le potentiel énorme du calcul quantique pour casser les techniques de chiffrement traditionnelles. Depuis 2000 jusqu’à aujourd’hui, de grandes entreprises technologiques comme Google et Microsoft ont développé des produits et services liés au calcul quantique.
Comme pour les ordinateurs classiques, la conception et la fabrication d’un ordinateur quantique se divisent en deux grandes parties : le matériel et le logiciel. Côté matériel, il y a trois éléments essentiels : le panneau de données, le panneau de contrôle-mesure et le processeur. Le panneau de données quantiques est le « cœur » de l’ordinateur quantique. Il sert à stocker les qubits (unités de base utilisées pour stocker et traiter l’information dans un ordinateur quantique) ainsi qu’à fixer leur structure. Les solutions principales actuelles incluent des qubits supraconducteurs, des qubits topologiques, etc. IBM et Google ont choisi la technologie des qubits supraconducteurs ; son avantage est sa fabrication relativement simple. Les qubits topologiques sont plus stables, mais plus difficiles à mettre en œuvre ; Microsoft a choisi cette voie technologique.
Un ordinateur quantique ressemble à une usine. Son « cœur » — le panneau de données quantiques — stocke les qubits (Qubit). Le panneau de contrôle-mesure convertit des signaux numériques en formes d’onde pour contrôler les qubits, le processeur effectue les calculs, tandis que le logiciel exécute des algorithmes via des circuits quantiques. Les programmeurs peuvent écrire des programmes quantiques avec IBM Qiskit, Google Cirq ou Microsoft Q#.
CEO de Google et ordinateur quantique, source de l’image : NYTimes
Applications du calcul quantique
Avec l’évolution des algorithmes quantiques et la « commercialisation » des ordinateurs quantiques, la technologie quantique s’intègre progressivement dans tous les aspects de nos vies.
Sous l’influence de l’entrée des grands groupes commerciaux et des investissements en capital, le calcul quantique brille dans divers domaines spécialisés : recherche-développement pharmaceutique, conception de modèles de contrôle des risques dans le secteur financier, etc. Les méthodes traditionnelles de R&D pharmaceutique reposent sur la simulation par ordinateur classique des interactions moléculaires, mais l’ordinateur quantique peut simuler plus précisément les réactions chimiques. Par exemple, le 11 janvier 2021, Google s’est associé à l’entreprise pharmaceutique allemande Boehringer Ingelheim : ils ont utilisé des algorithmes quantiques pour simuler la structure moléculaire, aidant à concevoir des médicaments contre les maladies cardiovasculaires, réduisant considérablement la durée des essais. Dans le secteur financier, le calcul quantique optimise la gestion des risques et les portefeuilles d’investissement. JPMorgan Chase fait partie des premières institutions financières à utiliser IBM Q System One (le premier ordinateur quantique commercial basé sur des circuits) pour explorer le calcul quantique. Elle utilise IBM Q System One pour simuler la méthode de Monte Carlo, afin d’évaluer le risque de marché et la tarification des dérivés, aidant la banque à prendre des décisions plus précises sur le marché. Bien que le calcul quantique fasse encore face à des critiques et à des défis de déploiement commercial à grande échelle, ces cas montrent que la technologie quantique passe progressivement du laboratoire à des applications concrètes, et que cette dynamique s’accélère.
Menaces liées au calcul quantique
Les avantages uniques du calcul quantique lui permettent d’obtenir une accélération de calcul exponentielle dans des environnements spécifiques, dépassant ainsi, en dimension supérieure, la vitesse de traitement des ordinateurs classiques. Par conséquent, les algorithmes de cassage quantique posent une menace potentiellement énorme pour les technologies de blockchain construites à partir de la cryptographie. À l’heure actuelle, l’architecture la plus courante de la blockchain (comme Bitcoin, Ethereum, etc.) repose principalement sur des systèmes de chiffrement à clé publique (comme l’algorithme de signature numérique à courbe elliptique ECDSA) et sur des fonctions de hachage (comme SHA-256) pour sécuriser le chiffrement. Dans un avenir prévisible, le calcul quantique pourrait briser cette barrière de sécurité. Les menaces actuelles du calcul quantique pour la sécurité de la blockchain proviennent principalement de deux algorithmes quantiques les plus emblématiques : l’algorithme Shor proposé en 1994 par Peter Shor, et l’algorithme Grover proposé en 1996 par Lov Grover.
Algorithme quantique de SHOR
L’algorithme de Shor est un algorithme quantique proposé par Peter Williston Shor, professeur de mathématiques au MIT (États-Unis). Il est aussi appelé « algorithme quantique de factorisation en nombres premiers ». En termes simples : il peut décomposer rapidement de très grands entiers — comme ceux utilisés dans le chiffrement RSA — en le produit de deux grands nombres premiers. Par rapport aux ordinateurs classiques, un ordinateur quantique peut accomplir cette tâche en un temps extrêmement court, et c’est ce qui fait la force particulière de Shor. Son idée centrale est également très « astucieuse » : l’algorithme ne cherche pas directement les facteurs premiers. Il commence d’abord par trouver rapidement une régularité numérique (une période), puis calcule les nombres premiers à partir de cette régularité.
Faisons une analogie simple : si l’ordinateur classique décompose de grands nombres comme en fouillant des cartons dans un gigantesque entrepôt, l’ordinateur quantique ressemble à une armée de copies qui essaient simultanément chaque chemin, et trouve rapidement la réponse.
Dès 2001, IBM a démontré un exemple de l’algorithme de Shor avec un ordinateur quantique à résonance magnétique nucléaire (liquide). Depuis lors, cet algorithme a suscité un énorme retentissement dans le domaine de la cryptographie, car il met en évidence la puissance potentielle du calcul quantique : à l’avenir, il pourrait avoir un impact profond sur les techniques de chiffrement traditionnelles et la sécurité d’Internet.
Cela signifie que, dans les systèmes de chiffrement traditionnels, le chiffrement par courbes elliptiques (Elliptic Curve Cryptography) et RSA — utilisés notamment pour les signatures HTTPS/TSL de sites web, les clés SSH et les signatures de certificats de sites web plus anciens — seront directement menacés. En particulier, le chiffrement par courbes elliptiques est étroitement lié à notre vie quotidienne : par exemple, sur les Apps de téléphone, et pour l’authentification des IDs de logiciels afin de réaliser du chiffrement ; c’est l’une des techniques de chiffrement les plus courantes sur Internet moderne. Bien qu’à ce jour les ordinateurs quantiques ne puissent pas encore casser le chiffrement RSA-2048 (il faudrait théoriquement des milliers de qubits), avec la maturation de la technologie quantique, il est possible que, dans un futur proche, cette barrière de sécurité soit franchie.
Algorithme quantique de Grover
Deux ans après la sortie de l’algorithme de Shor, le scientifique indien-américain Lov Kumar Grover de l’université de Stanford a proposé et développé un nouvel algorithme quantique — l’algorithme de Grover, aussi appelé « algorithme de recherche quantique ». En calcul quantique, l’algorithme de Grover est un algorithme très pratique pour la recherche et l’interrogation de bases de données non structurées.
Si un ordinateur classique doit trouver une réponse dans une base de données dont la taille atteint « une puissance de dizaines » (de 2), la méthode traditionnelle consiste essentiellement à vérifier de manière exhaustive, de la première à la dernière entrée, comme si l’on feuilletait livre par livre dans une bibliothèque — ce qui prend énormément de temps. L’algorithme de Grover, lui, exploite les propriétés de la « superposition quantique » et du « renforcement de l’amplitude » pour trouver la réponse en environ √N essais. Ce processus s’appelle « accélération quadratique » (Quadratic Speedup).
En simple : si l’ordinateur classique doit effectuer 10¹² opérations (soit un billion), l’algorithme de Grover n’en aurait besoin théoriquement que d’environ 1 million. L’écart d’efficacité est donc très clair.
Son principe central est le suivant : d’abord, on « superpose » tous les résultats possibles pour que les qubits représentent simultanément N états possibles. Au départ, la probabilité que chaque réponse soit sélectionnée est 1/N. Ensuite, l’algorithme utilise un mécanisme appelé « oracle » pour « marquer » la bonne réponse (inversion de phase). Puis, en itérant de façon répétée, on augmente progressivement la probabilité de la bonne réponse tout en réduisant celle des autres réponses incorrectes.
On peut faire une autre analogie : imaginez une pièce totalement sombre avec d’innombrables portes, et une seule d’entre elles mène à un trésor. L’ordinateur classique ne peut tester qu’une porte à la fois. L’algorithme de Grover, en revanche, fait d’abord en sorte que toutes les portes soient « testées » en même temps, puis, à chaque tour, augmente légèrement la « luminosité » de la porte correcte, jusqu’à ce qu’elle soit de plus en plus visible dans la nuit noire. Finalement, on peut voir d’un seul coup d’œil. Lorsque la probabilité de la bonne réponse est renforcée jusqu’à s’approcher de 100 %, le système de mesure peut obtenir la réponse correcte avec une forte probabilité.
Vous pourriez vous demander : puisque dès le début il teste toutes les portes simultanément, pourquoi ne pas nous dire directement quelle porte mène au trésor ? La raison est la suivante : lorsque vous « regardez » le résultat (mesure), vous ne pouvez en voir qu’une seule porte. Si vous regardez dès le départ, comme les probabilités de chaque porte sont identiques, la probabilité de tomber sur la porte du trésor ressemble à un tirage aléatoire, pratiquement comme une devinette. Ainsi, l’algorithme de Grover doit rendre progressivement la bonne porte de plus en plus lumineuse tour après tour. Quand la bonne porte devient nettement plus lumineuse que les autres dans le noir, en la « regardant », vous avez presque la certitude de voir la réponse correcte. Autrement dit : l’ordinateur quantique explore simultanément toutes les possibilités, mais ne peut pas afficher toutes les réponses simultanément. Il ne fait qu’« amplifier la probabilité de la bonne réponse », de sorte que, lors de la mesure, vous obteniez le résultat correct avec une forte probabilité.
L’algorithme de Grover peut aussi être appliqué au cassage par force brute dans la cryptographie, et menace concrètement le déchiffrement des clés symétriques. Actuellement, l’industrie recommande d’utiliser des clés de longueur 256 bits pour AES-256 (Advanced Encryption Standard), car dans un environnement quantique, une clé de 128 bits ne fournirait qu’une sécurité de 64 bits. Par conséquent, l’industrie a besoin d’un niveau de sécurité plus élevé. Cependant, l’algorithme de Grover a aussi des limites : il ne fournit qu’une accélération de type quadratique. Autrement dit, même s’il est bien plus rapide que l’ordinateur classique, l’accélération n’est pas infinie. Prenons une analogie : si vous deviez courir à l’origine 100 kilomètres, l’algorithme de Grover pourrait peut-être vous permettre de n’en courir que 10, mais il faudrait toujours fournir l’effort physique de courir. Et le fait est que la fabrication et l’utilisation d’un ordinateur quantique coûtent très cher ; c’est comme si vous deviez utiliser un tapis de course extrêmement coûteux pour faire ces 10 kilomètres. Ainsi, dans les applications réelles, l’algorithme de Grover ne peut pas casser indéfiniment tous les systèmes de chiffrement ; il faut encore combiner des clés plus longues ou d’autres mesures de sécurité pour garantir la sécurité.
Analyse de l’impact du calcul quantique sur la blockchain
Le cœur de la conception de la blockchain repose sur une base construite sur la cryptographie : un registre distribué. La plupart des protocoles de blockchain, comme Bitcoin, utilisent l’ECC (chiffrement à courbe elliptique) pour générer des clés publiques et privées et pour les signatures numériques. Sur la base de ECDSA (Elliptic Curve Digital Signature Algorithm, algorithme de signature numérique à courbe elliptique), Secp256k1 — avec des paramètres spécifiques — est une norme de paramètres particuliers de courbes elliptiques couramment utilisés par Bitcoin et Ethereum. Ses caractéristiques sont : sécurité, efficacité et clés de taille réduite. Il est largement utilisé pour la génération de paires de clés et pour les signatures sur la chaîne.
SHA-2 (Secure Hash Algorithm 2) est également une fonction de hachage cryptographique du groupe, et SHA-256 est aussi largement adopté par la blockchain. Une fonction de hachage convertit n’importe quelle longueur de données en un nombre de longueur fixe (valeur de hachage). L’algorithme est irréversible, difficile à rétroconcevoir. Il est couramment utilisé pour des algorithmes de preuve de travail et pour la validation des transactions. À mesure que les ordinateurs quantiques itèrent, dans un contexte où ils disposeraient de suffisamment de qubits, le calculateur pourrait, en exécutant des « algorithmes quantiques », casser des algorithmes de chiffrement asymétrique comme le chiffrement par courbes elliptiques en un temps court (1 mois de calcul continu). Les composants de la blockchain feront alors face à un défi direct.
Impact de différents algorithmes sur les composants de chiffrement, source de l’image : Web3Caff Research chercheur Bob (création)
En outre, les ordinateurs quantiques pourraient conduire à des attaques de type « HNDL » (Harvest-Now-Decrypt-Later). Cela signifie que l’attaquant collecte des données dès maintenant, puis lance une attaque de déchiffrement lors du « jour de saut » de la capacité de calcul quantique. HNDL est une stratégie de surveillance : elle dépend d’une surveillance sur une longue période et du stockage des données chiffrées qui ne peuvent pas encore être cassées, lesquelles seront déchiffrées après maturation de la technologie quantique. Dans l’industrie, la date de ce « jour de saut » hypothétique est appelée Y2Q ou Q Day. Face à la menace du calcul quantique, l’industrie de la blockchain répond activement. Par exemple, en janvier 2026, Coinbase, une entreprise cotée américaine connue, a créé un comité indépendant sur le calcul quantique et la blockchain afin de faire face aux menaces potentielles que le calcul quantique pourrait poser à la sécurité cryptographique de la blockchain à l’avenir, et de mener des recherches sur des solutions anti-quantique. La même année, le réseau de couche 2 Optimism dans l’écosystème d’Ethereum a aussi commencé à introduire des algorithmes anti-quantique afin de relever des défis plus importants à venir.
Schéma explicatif HNDL, source de l’image : Paloalto Networks
Impact du calcul quantique sur la finance numérique
Bien sûr, l’impact potentiel du calcul quantique ne se limite pas à l’industrie de la finance blockchain ; il affecte aussi l’industrie de la finance numérique plus largement. Par exemple, les banques qui sont liées à la vie quotidienne des gens. Pour des raisons de sécurité des risques, les installations de sécurité cryptographique fortement dépendantes auxquelles les banques recourent en priorité sont les premières menacées. L’algorithme de Shor peut rapidement casser les chiffrement RSA et par courbes elliptiques utilisés par les banques, ce qui permettrait de déchiffrer les informations des utilisateurs de la banque. De plus, la stratégie d’attaque « voler d’abord, déchiffrer ensuite » (HNDL) implique que les données financières actuelles déjà divulguées pourraient également être déchiffrées à l’avenir par des ordinateurs quantiques. Face aux « menaces quantiques », les grandes entreprises financières mondiales sont déjà entrées dans une « ère post-quantique ». En 2024, le NIST (National Institute of Standards and Technology) aux États-Unis a publié les premiers standards de sécurité quantique, et les banques et institutions financières commencent aussi à planifier progressivement une migration vers des algorithmes de cryptographie post-quantique (PQC, Post-Quantum Cryptography) pour faire face à l’arrivée de l’ère quantique.
Cependant, le calcul quantique n’apporte pas seulement des défis aux institutions financières comme les banques : il a aussi un aspect positif. Il peut apporter des transformations à l’industrie financière en accélérant des calculs complexes. En matière de modélisation des risques, il peut accélérer la simulation de Monte Carlo (Monte Carlo method), permettant aux banques d’évaluer plus précisément et rapidement leurs risques. Ces dernières années, les cas d’utilisation du calcul quantique dans l’industrie bancaire se multiplient. Par exemple, en 2025, la collaboration entre HSBC et IBM sur un projet de calcul quantique a permis d’améliorer de 34 % la précision des prévisions de négociation des obligations, en utilisant des processeurs quantiques. La banque turque Yapi Kredi, en coopération avec la société de calcul quantique canadienne D-Wave, a permis de verrouiller rapidement les entreprises à haut risque via des modèles de contrôle des risques.
État actuel de la sécurité quantique
En réalité, après que les gens aient pris conscience de la menace quantique, ces dernières années la cryptographie post-quantique (Post-Quantum Cryptography,简称 PQC) a connu des progrès positifs. En particulier, après que NIST (National Institute of Standards and Technology) en 2024 a publié 3 standards de cryptographie post-quantique, l’ensemble des secteurs liés à la sécurité des données intensifient leur migration vers la sécurité quantique. Les entreprises de grandes plateformes comme les banques financières, les communications électroniques, etc., mettent des mesures de sécurité anti-quantique à l’ordre du jour et prévoient des mises à niveau d’algorithmes quantiques dans les années à venir.
Développement de la cryptographie post-quantique
Selon les prévisions de Global Risk Institute (rapport sur la chronologie des menaces quantiques, basé sur des dizaines d’experts), la probabilité que l’algorithme de chiffrement RSA soit cassé par le quantique après 8 ans (2034) serait d’environ 19–34 % (données 2024/2025). Par rapport aux années précédentes, cette chronologie s’accélère légèrement. La cryptographie post-quantique (Post-Quantum Cryptography) est née de l’inquiétude croissante envers le Q Day. Aujourd’hui, elle est devenue une pierre angulaire de la recherche anti-quantique.
Image de prévision montrant que l’ordinateur quantique pourrait casser RSA-2048 en 1 jour, source de l’image : Global Risk Institute
La cryptographie post-quantique est aussi appelée « cryptographie anti-quantique » ou « cryptographie de sécurité quantique ». Les attaques quantiques visent principalement les algorithmes à clé publique. Les directions de recherche de la cryptographie post-quantique incluent la cryptographie sur réseaux (lattice), l’apprentissage tolérant aux erreurs (fault-tolerant learning), les polynômes multivariés, etc. Ces algorithmes sont conçus pour garantir la sécurité des données privées dans un environnement de calcul quantique futur.
La standardisation anti-quantique a déjà 10 ans de processus. À partir de 2016, lorsque le National Institute of Standards and Technology (NIST) des États-Unis a lancé un projet de cryptographie post-quantique, plusieurs séries d’évaluations ont été menées. En août 2024, NIST a officiellement publié les premiers standards de chiffrement de la cryptographie post-quantique. Leur objectif est unique : faire face à la menace quantique que les futurs ordinateurs quantiques feront peser sur les algorithmes à clé publique existants (RSA et chiffrement par courbes elliptiques). Ces trois standards de cryptographie post-quantique sont :
La raison pour laquelle on les appelle « algorithmes anti-quantique » tient au fait qu’ils ne reposent plus sur des problèmes mathématiques qui peuvent être cassés efficacement par l’algorithme de Shor (comme la factorisation de grands nombres ou les logarithmes discrets sur les courbes elliptiques), mais s’appuient sur des fondations mathématiques que les ordinateurs quantiques d’aujourd’hui sont encore difficiles à attaquer.
La sécurité des algorithmes de chiffrement traditionnels (tels que RSA, ECC) repose sur le fait que « la factorisation de grands nombres est difficile » ou que « il est difficile de reconstruire une clé privée à partir d’une courbe elliptique ». Or, un ordinateur quantique peut utiliser l’algorithme de Shor pour les casser avec une accélération exponentielle. Par conséquent, en théorie, ils ne sont plus considérés comme sûrs.
ML-KEM et ML-DSA reposent sur de la « cryptographie sur réseaux (lattice) ». On peut le comprendre comme la recherche d’une solution spécifique dans un labyrinthe mathématique extrêmement complexe et de très grande dimension. À l’heure actuelle, il n’existe pas d’algorithme quantique permettant d’accélérer fortement la résolution des problèmes de réseau comme le fait Shor pour d’autres problèmes. Ainsi, même dans un environnement de calcul quantique, ces problèmes sont toujours considérés comme très difficiles.
SLH-DSA (ancien SPHINCS+) repose sur la construction à partir des fonctions de hachage. Dans ce cas, l’ordinateur quantique ne peut appliquer au hachage qu’une accélération de type quadratique via Grover, et non une accélération exponentielle. Cela signifie qu’en augmentant correctement les paramètres de sécurité (par exemple en utilisant une longueur de hachage plus longue), on peut compenser l’avantage d’accélération apporté par le quantique ; la sécurité est alors plus robuste, mais le volume des signatures est plus grand et la vitesse de génération plus lente.
En résumé : ces algorithmes anti-quantique sont sûrs parce qu’ils reposent sur des problèmes mathématiques que les ordinateurs quantiques connus ne peuvent pas résoudre efficacement aujourd’hui (problèmes sur réseaux ou problèmes de hachage), plutôt que sur des problèmes de factorisation de grands nombres traditionnellement vulnérables et faciles à casser par Shor.
Sur la base des standards ci-dessus, les développeurs ont étudié trois grandes voies techniques d’algorithmes anti-quantique :
En plus des trois grandes voies techniques, il existe aussi d’autres voies plus spécialisées correspondant à différents scénarios d’usage, comme les cryptographies basées sur des multivariés et l’échange de clé ultra-synchrone homologue (déjà cassé), etc. Les voies basées sur les polynômes multivariés sont souvent utilisées pour générer et vérifier rapidement des signatures dans la blockchain ; leur avantage est la vitesse de vérification. Cette solution est plus adaptée aux signatures qu’au chiffrement. L’échange de clé ultra-synchrone homologue était auparavant couramment utilisé dans le protocole SSL pour établir des clés de session de sécurité quantique. Mais en 2022, cette technologie a été cassée, et l’équipe NIST a retiré cette voie des standards.
En résumé : la cryptographie post-quantique repose essentiellement sur l’utilisation de nouveaux mécanismes mathématiques de protection afin de remplacer les « mécanismes mathématiques de protection traditionnels » qui seront cassés à l’avenir par le calcul quantique, protégeant ainsi la sécurité de la confidentialité des données. Ainsi, dans l’industrie financière — un secteur qui dépend fortement du chiffrement des données — le déploiement et la migration de la cryptographie post-quantique sont particulièrement importants. Aujourd’hui, les grandes entreprises technologiques mondiales (Google, Microsoft, Amazon, etc.) intègrent progressivement ces algorithmes dans les navigateurs et systèmes d’exploitation. Par conséquent, les utilisateurs ordinaires n’ont pas besoin de s’inquiéter excessivement : les grandes entreprises plateformes ont déjà commencé à planifier la migration des algorithmes de sécurité quantique.
Progrès anti-quantique dans l’industrie de la blockchain
Pour une industrie de la blockchain qui dépend fortement de la sécurité cryptographique, les menaces potentielles du quantique n’ont pas commencé à être abordées récemment : elles sont déjà étudiées de façon prospective et préparées depuis plusieurs années. Le « consensus » formé par les principales institutions de l’industrie et les acteurs clés est le suivant : la menace du calcul quantique est un problème que l’on peut résoudre par l’ingénierie, et non un risque systémique impossible à gérer.
Ainsi, même si la « blockchain native anti-quantique » n’est pas encore devenue une direction dominante, à mesure que les mécanismes de gouvernance progressent, certaines entreprises et chaînes publiques principales commencent déjà à se préparer à une migration vers des environnements sécurisés par le quantique. Une série de développements récents montrent que le secteur passe progressivement de la discussion théorique à l’étape de planification du déploiement.
Par exemple, Coinbase, l’une des plus grandes sociétés de cryptographie cotées en bourse au monde, a créé en janvier 2026 un comité consultatif indépendant sur le quantique, et a invité des professeurs en informatique quantique et des experts en sécurité du milieu académique américain à participer. Il est prévu qu’ils publient des rapports d’évaluation des risques quantiques et des feuilles de route de migration anti-quantique. Son plan comprend la mise à niveau des mécanismes de traitement des adresses Bitcoin, le renforcement des systèmes internes de gestion des clés, et la prise en charge progressive des schémas de signatures post-quantique, tels que des algorithmes de signature numériques basés sur des réseaux (ML-DSA), etc.
En parallèle, Ethereum Foundation a également constitué une équipe dédiée à la recherche anti-quantique et a classé la sécurité quantique comme priorité stratégique pour 2026. Ces initiatives indiquent que 2026 pourrait devenir le point de départ de la planification de l’« ère anti-quantique » dans la blockchain. La sécurité quantique passe alors de sujets théoriques à une étape d’exécution en ingénierie (voir ci-dessous pour les détails).
En comparaison, la communauté Bitcoin adopte une approche plus prudente. Son défi ne se situe pas uniquement au niveau technique, mais aussi au niveau gouvernance. Étant donné que la gouvernance de Bitcoin dépend fortement du consensus communautaire, les cycles de mise à niveau s’étendent généralement sur « plusieurs années ». Par conséquent, les difficultés principales pour la migration vers le post-quantique proviennent davantage de la coordination des décisions et de la formation du consensus que de la simple implémentation technique.
À l’heure actuelle, la communauté Bitcoin discute principalement de trois voies techniques :
Mais dans le court terme, il demeure difficile de parvenir à une solution unifiée.
La proposition la plus récemment mise en avant est BIP-360 (aussi appelé Pay-to-Tapscript-Hash, P2TSH). Elle a été initialement proposée en 2024 et mise à jour de façon importante vers la fin 2025. Elle reste actuellement au stade de projet (draft), mais le volume de discussions est déjà significatif. Son idée centrale consiste à s’inspirer du mécanisme de sortie de la mise à niveau Taproot de 2021, à supprimer Key Path Spend (dépense par chemin de clé publique), et à réduire le risque d’exposition des clés publiques au niveau de la chaîne dans les formats d’adresses initiaux, afin de réserver de la place pour l’intégration de futures signatures anti-quantique.
Cependant, une autre voix existe également au sein de la communauté : certains considèrent que la menace quantique en est encore à un stade précoce et qu’il existe encore beaucoup de temps avant une attaque réaliste. Dès lors, la question de savoir s’il faut procéder immédiatement à une mise à niveau à grande échelle reste débattue.
Autrement dit : l’industrie de la blockchain n’attend pas passivement une vague quantique ; elle avance progressivement vers une transformation anti-quantique sous différents rythmes de gouvernance et de perception du risque. Le véritable défi ne consiste pas seulement à implémenter techniquement, mais à parvenir à un consensus de mise à niveau à travers différentes communautés et structures d’intérêts dans un réseau ouvert.
Même si, à ce stade, Bitcoin semble ne pas encore faire face à des attaques ou à des menaces de sécurité quantiques concrètes, une partie limitée des Bitcoins est exposée au risque quantique. En déclarant depuis les États-Unis, la société financière Coinshares basée dans le New Jersey indique que les adresses de clés publiques utilisant le format Pay-To-Public-Key (P2PK) sont les plus susceptibles d’être ciblées par des attaques quantiques : environ 1,6 million d’adresses (soit 8 % du total) pourraient être plus facilement menacées. Le nombre susceptible de provoquer des fluctuations du marché est d’environ 10 000 Bitcoins.
Nombre de Bitcoins exposés à la menace quantique, source de l’image : Coinshare
Compte tenu du fait que les cycles de mise à niveau des réseaux blockchain sont longs, tant que la communauté Bitcoin n’a pas encore effectué une mise à niveau formelle anti-quantique, la communauté des développeurs tente activement de créer des solutions « rapides », comme l’outil de génération de clés anti-quantique Yellow Pages développé par l’équipe Project Eleven en 2025. Cela permet aux utilisateurs Bitcoin de lier directement leurs Bitcoins à des adresses anti-quantique et de prouver leur propriété.
Le mécanisme de Yellow Pages est relativement simple. Le produit peut générer des clés de signature post-quantique (conformes aux standards NIST). Après signature, l’utilisateur associe son adresse à la clé post-quantique. Lorsque la menace quantique arrive, après avoir prouvé la propriété, l’utilisateur peut transférer les Bitcoins vers une adresse sécurisée par le quantique. En plus de la blockchain Bitcoin, Project Eleven coopère avec Solana et d’autres chaînes publiques majeures pour développer une série d’outils destinés aux infrastructures de base de l’ère post-quantique.
Par rapport au cycle de mise à niveau de Bitcoin, la communauté Ethereum se montre plus proactive. En novembre 2025, le fondateur d’Ethereum Vitalik Buterin a averti lors du Devconnect que le calcul quantique pourrait disposer, avant l’élection présidentielle américaine de 2028, d’une puissance de calcul suffisante pour casser la sécurité d’Ethereum. Vitalik Buterin a activement demandé à la communauté Ethereum de finaliser en 4 ans une migration systémique de sécurité quantique. Deux mois plus tard, en janvier 2026, la Fondation Ethereum a classé la sécurité quantique parmi les toutes premières priorités stratégiques de l’année et a créé une équipe dédiée au post-quantique, finançant l’aide au développement des logiciels de mise à niveau de sécurité quantique correspondants. En février 2026, Vitalik Buterin a mis à jour sur X la feuille de route anti-quantique d’Ethereum : Ethereum remplacera la voie actuelle basée sur les signatures numériques BLS par une voie basée sur la cryptographie par codes de hachage (Hash-based cryptography, voir ci-dessus), et utilisera STARK pour agréger et réduire les coûts, afin de traiter les faiblesses quantiques d’Ethereum en avance. Son objectif est de résoudre en un an, via une mise à niveau EIP-8141, le problème de l’abstraction de compte et de se débarrasser de la signature unique ECDSA (facilement attaquable par le quantique). À ce moment-là, les utilisateurs pourront basculer librement entre les schémas de signature, y compris les signatures anti-quantique (voie basée sur le hachage).
En outre, la Fondation Ethereum investira 2 millions de dollars pour des incitations liées à la recherche et au développement. Le chercheur Ethereum Justin Drake a également indiqué qu’Ethereum passe de la phase de recherche à la phase d’exécution d’ingénierie, y compris l’organisation de conférences pour développeurs anti-quantique et la publication de testnets anti-quantique à clients multiples.
En parallèle, le réseau de couche 2 d’Ethereum, Optimism, a aussi publié en janvier 2026 sa stratégie de feuille de route anti-quantique « Superchain / OP Stack ». Elle prévoit d’abandonner, d’ici 2036, tous les comptes externes (EOA) basés sur ECDSA, plus vulnérables aux attaques, et de passer de la couche d’abstraction de compte (Account Abstraction, AA) à l’ère post-quantique. Les portefeuilles externes pourront déléguer leurs permissions à des comptes de smart contracts. En 2036, le mainnet OP et son écosystème n’accepteront plus les transactions signées uniquement par ECDSA. Les utilisateurs devront interagir on-chain via des smart contracts prenant en charge les signatures post-quantique, mais sans avoir besoin de transférer des actifs. En tant que L2 (réseau de couche 2), Optimism jouera le rôle de pionnier pour la sécurité quantique d’Ethereum. Au cours des années suivantes, Optimism prendra en parallèle en charge les signatures ECDSA et les signatures PQ post-quantique. L’écosystème, comme les dApp (applications décentralisées), migrera vers des comptes de smart contracts, et ECDSA sera finalement abandonné.
Dans l’industrie de la blockchain, où tout dépend de l’infrastructure cryptographique, l’année 2026 constitue un jalon temporel pour le passage de l’anti-quantique du théorique au concret. La migration quantique de l’écosystème Ethereum se fera de manière plus fluide et avec une planification du temps plus claire que Bitcoin. Bien que la communauté Bitcoin n’ait pas encore procédé officiellement à une mise à niveau, elle a déjà fait émerger des propositions à portée de discussion à grande échelle, et son design réseau est évolutif. Avec l’apparition de davantage de propositions anti-quantique, lorsque le moment de la menace quantique arrivera, les communautés pourront mettre à niveau les algorithmes via des soft forks et une synchronisation communautaire. En attendant la réussite de la mise à niveau du réseau blockchain, les utilisateurs peuvent aussi choisir d’essayer des outils open source (comme YellowPages) mentionnés plus haut afin de garantir que leurs actifs restent « sécurisés par le quantique ».
Recommandations de préparation et chronologie pour l’anti-quantique dans l’industrie de la blockchain
À ce jour, la technologie des ordinateurs quantiques progresse de dizaines de qubits vers des centaines puis vers des milliers. En 2025, Fujitsu (Japon) et le RIKEN ont développé en collaboration un système supraconducteur de 256 qubits. L’objectif est de développer, d’ici 2026, un ordinateur quantique dépassant les 1000 qubits. Le 25 mars 2026, Google (Google) mettra à jour sa feuille de route de l’ère post-quantique à 2029 et appellera l’industrie à effectuer une migration sécurisée. Bien que les qubits actuels ne soient pas encore suffisants pour casser rapidement le chiffrement traditionnel, avec l’itération des ordinateurs quantiques, la capacité de stockage en qubits augmentera de façon exponentielle dans un futur proche. Ainsi, des délais de migration pour la sécurité quantique ont également été fournis entre les pays et les entreprises.
Planification de migration au niveau national
En 2022, les États-Unis ont publié 《Commercial National Security Algorithm Suite 2.0》(CNSA 2.0), qui précise la feuille de route et les standards pour la migration des systèmes de sécurité nationale vers la cryptographie post-quantique. Ce cadre vise à fournir une protection à long terme pour les systèmes de sécurité nationale et les informations sensibles, afin de faire face aux risques de cassage cryptographique futurs liés au calcul quantique.
En mars 2025, le Centre National britannique de cybersécurité a publié une feuille de route de migration anti-quantique, planifiant :
Selon l’organisation de CNSA 2.0, la NSA (National Security Agency) des États-Unis a fixé la période de fenêtre de migration clé à 2030–2033. Le Royaume-Uni et l’Australie considèrent également 2035 comme le dernier jalon pour achever la migration.
En outre, le National Institute of Standards and Technology (NIST) a publié des standards de cryptographie post-quantique et a explicitement exigé qu’à partir de 2030, les institutions fédérales et les infrastructures critiques éliminent progressivement les algorithmes traditionnels vulnérables aux attaques quantiques. L’UE, dans sa 《Quantum Europe Strategy》, a également proposé que la majorité des infrastructures critiques doivent achever la mise à niveau vers une sécurité quantique avant 2035.
Dans l’ensemble, la période 2025–2035 devient une fenêtre d’opportunité de politique publique pour la migration de la sécurité quantique à l’échelle mondiale.
Déploiement concret au niveau des entreprises
Au niveau des entreprises, les secteurs de la finance, des communications et des infrastructures cloud sont considérés comme exposés à un risque potentiel d’attaques « Harvest Now, Decrypt Later » (HNDL, c.-à-d. « voler maintenant, déchiffrer plus tard »). Cela signifie que l’attaquant vole aujourd’hui des données chiffrées et les déchiffrera une fois que le calcul quantique aura mûri. Ainsi, les données sensibles à long terme (comme les relevés de transactions bancaires, les données d’identité) deviennent une priorité de protection.
En mai 2024, la grande banque mondiale JPMorgan Chase a annoncé le déploiement d’un réseau agile de chiffrement sécurisé par le quantique (Q-CAN) afin d’améliorer la résilience de son chiffrement réseau à l’ère quantique.
Dans le domaine des communications, le fournisseur de CDN et services cloud Cloudflare a commencé en 2022 à déployer des protocoles hybrides de TLS post-quantique et a pris en charge côté serveur des mécanismes d’échange de clés post-quantique, ouvrant ainsi la voie à une migration complète de l’Internet vers un environnement de ch