だから私は量子コンピューティングの分野をかなり注視してきましたが、正直2024年はこれまでのハイプサイクルとは違うと感じました。通常は大きな発表が一つあり、あまり意味のない天文学的な数字が出て、その後また1年静かになるという流れです。今回は実際に違いました — 完全に異なるアプローチを採用した全く別の企業から、わずか数ヶ月の間に3つの主要なブレークスルーがあったのです。これは、その分野が実際に動き出していることを示すパターンです。



実際に何が起こったのかを解説しましょう。2024年の量子コンピューティングの最新のブレークスルーは単なる漸進的な進歩ではありませんでした。Googleは12月にウィローを発表しました — 105量子ビットの超伝導プロセッサで、30年以上追い求められてきたことを実現しました。彼らは量子ビットを増やし、エラー率は上がるどころか下がったのです。これは直感的にわかることのように思えますが、実際には大きな意味があります。量子システムの問題は、スケールアップするとノイズや不安定さが増し、全てが混乱することでした。ウィローはそのパターンを打ち破ったのです。研究者たちが「閾値以下」の動作と呼ぶものを実証し、つまりスケーリングがむしろ役立つことを示しました。

それに伴うベンチマークも大きな注目を集めました — ウィローはランダム回路サンプリング計算を5分未満で行い、従来のスーパーコンピュータでは1兆年かかる計算を実現しました。これは『ネイチャー』に掲載された実数値で、完全な方法論も公開されており、重要です。なぜなら、以前の量子コンピュータの主張は正当な批判を受けていたからです。でも正直なところ、そのベンチマークはかなり限定的です。特定の計算が古典的に困難であることを証明していますが、ウィローが薬物発見や気候モデルに使われているわけではありません。示しているのは、大規模な誤り訂正を伴う量子コンピュータがもはや理論だけではなく、実際のエンジニアリングの道筋になりつつあるということです。

次に、MicrosoftとQuantinuumの取り組みもありました。こちらはあまり主流のメディアには取り上げられませんでしたが、実際の研究者からは遥かに注目されました。2024年4月、彼らは誤り率が物理量子ビットの800分の1の論理量子ビットを実証しました。ここでの違いは重要です:物理量子ビットはノイズの多いハードウェアユニットであり、論理量子ビットは複数の物理量子ビットを組み合わせて誤りを検出・修正できるものです。問題は、論理量子ビットを構築するために必要な物理量子ビットの数が多すぎて実用的でないと見なされていたことです。800倍の誤り削減は、その計算を変えました。

Microsoftは11月にAtom Computingをさらに推し進めました — 超低温中性ヤッバウム原子を用いて24論理量子ビットを作り、エンタングルさせました。これはGoogleのアプローチとは全く異なるハードウェアアーキテクチャです。その後、Quantinuumは12月に50論理量子ビットに到達しました。ここでの重要性は、耐誤性量子コンピューティングに向けた複数の有望な道筋が同時に進展していることです。もはや一つのアプローチに全てを賭ける時代ではありません。

IBMの貢献は静かでしたが、実用的な量子コンピューティングの出所について考える上で非常に重要です。11月に発表されたHeron R2プロセッサは、156量子ビットを搭載し、実に印象的な性能向上を示しました。2量子ビットゲートのエラー率は8×10⁻⁴に低下し、かつて120時間以上かかっていた作業が約2.4時間で完了するようになりました。これは実用規模の計算において50倍の高速化です。また、新しい誤り訂正符号として「二変数バイシクルqLDPC符号」を公開し、144データ量子ビットだけで従来の3000ビットと同等の誤り抑制を実現しました — オーバーヘッドを10倍削減したのです。これは、耐誤性量子コンピューティングが遠い夢ではなく、エンジニアリングの問題として解決可能になりつつあることを示す効率向上です。

ただし、多くの人が見落としがちな点もあります。それは、2024年の量子コンピューティングのブレークスルーには、全く量子プロセッサを使わないものも含まれていたということです。NISTは8月に最初のポスト量子暗号標準を発表しました。その中の2つのアルゴリズムはIBMリサーチからのものです。これは重要です。なぜなら、世界的な標準化団体が「現在の暗号を破ることができる量子コンピュータはもはや理論だけではない」と公式に認めた初めてのケースだからです。政府や企業は、暗号的に重要な量子コンピュータが実際に到達する前に、今すぐ移行を始める必要があります。そのタイムラインは通常、標準の発表から普及まで10年以上かかります。

2024年が何を証明し、何を証明しなかったのかを正直に言えば、量子コンピュータが「実用的に到達した」わけではありません。ウィローはまだ薬物発見を行っていません。50論理量子ビットは誤りを検出できますが、完全な誤り訂正はまだ進行中です。Microsoftの中性原子アプローチには、スケール可能なレーザーインフラが必要ですが、それはまだ存在しません。IBMのStarlingプロセッサ、最初の完全誤り訂正システムは2029年まで見込まれていません。

2024年が実際に証明したのは、より重要なことです。それは、分野が一方向に進むのをやめ、すべての方向に同時に進み始めたということです。ハードウェア、誤り訂正、論理量子ビット、ソフトウェアの効率性、暗号標準 — すべてが同時に動いています。研究コミュニティは、理論物理学者のような振る舞いから、マイルストーンを確認し再現できるエンジニアのような振る舞いに変わりつつあります。

2025年以降を見据えると、2024年の最新のブレークスルーは次のフェーズを準備しています。Googleは完全な耐誤性動作を目指しています。Microsoftは数年以内に商用展開で50〜100のエンタングルした論理量子ビットを目標としています。IBMはStarlingを使って、量子の実用性から量子優越性へと最終的に橋渡しをすることを狙っています。軌道は一貫しています:大規模な誤り訂正された量子コンピュータが可能かどうかはもはや疑問ではありません。2024年は複数のアプローチで可能であることを証明しました。次は、どのアプローチが最も早くスケールし、投資に見合うアプリケーションがいつ具体化するかの問題です。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン