量子コンピュータが上場ラッシュを巻き起こす、黄仁勋の「野望」が隠せなくなる

執筆者:苗正

数年前、量子力学はしばしば冗談のように扱われていた:困ったときの量子力学。

しかし今や、その冗談は募集要項に変わった。

過去数ヶ月で、Infleqtion、Xanadu、Horizon Quantumの三つの量子計算企業が次々と鐘を鳴らし上場し、その後もいくつかの企業がナスダックへの上場待ちの列に並んでいる。

かつては実験室やSF映画の中だけの存在だったプロジェクトが、突然公開市場に姿を現した。

問題は、量子計算は本当に商業化の爆発前夜に到達したのか?

私はそうは思わない。

この上場ラッシュの最も面白い点は、量子計算がすでに成熟したことを証明したのではなく、この業界の実情を露呈したことにある。

皆が量子計算と呼ぶ一方で、その技術路線は実に多様だ。

さらに詳しく調査すると、これらの企業の財務報告からわかるのは、汎用量子コンピュータは実際に数台売れた程度で、むしろ量子計算の周辺製品がこれらの企業の運営を支えているという事実だ。

また、このビジネスはまだ初期段階にあると言われるが、NVIDIAはすでに参入済みだ。

2021年には、NVIDIAはGPUを使って研究者が古典的なコンピュータ上で量子回路をシミュレートするのを支援していた。

その後も複数の量子計算スタートアップに投資を続け、2025年のGTCでは、黄仁勋(Jensen Huang)はボストン量子研究センターNVAQCの設立を直接発表した。

しかし、黄仁勋が目指すのは、量子コンピュータそのものではなく、NVIDIAを量子時代の基盤的入口に変えることだ。

AI時代と同じく、NVIDIAが売るのはモデルそのものではなく、訓練と推論に必要な計算能力だ。

NVIDIAが成功を再現できるかは今のところ未知数だが、その前に、今の量子計算がどのような状況にあるのかを理解しておくのも良いだろう。

技術路線

皆が量子計算と呼ぶ一方で、その技術は天と地ほど異なる。主流の路線は四つあり、それぞれの背後には全く異なる物理原理がある。

超伝導量子計算は、現時点で最も早く産業化が進む路線だ。

IBM、Google、Rigettiなどの大手企業がこの道を進んでいる。

その技術原理は、ジョセフソン構造を用いて人工量子ビットを構築することにある。したがって、極低温環境が必要で、絶対零度に近い温度に冷却しなければならない。

これはまさに冷知識だが、超伝導量子計算に必要な温度は宇宙空間よりも冷たい。宇宙空間はおよそ2.7ケルビンだ。

超伝導量子計算の利点は、工芸が従来の半導体に近く、ビットの拡張性が高いことだが、コヒーレンス時間は短く、ノイズも大きい。

この路線は資金調達規模が最大だが、冷却システムへの依存度が高いためコストが非常に高い。一台の希釈冷却機だけで数百万ドルもかかる。

IBMの「Golden Eye」希釈冷却機は80万ドル超のコストがかかり、年間電気代も10万ドル以上だ。

より大規模なシステム、例えばRigettiの500量子ビットをサポートする冷却装置は200万ドル以上のコストになることもあり、冷却システムは超伝導量子計算機の総コストの90%以上を占める。

イオントラップ量子計算は別の道だ。

現在、IonQとQuantinuumが取り組んでいる。帯電したイオンを量子ビットとして用い、レーザー操作で量子ゲートを実現する。この路線の量子ゲートの忠実度は最も高い。

これは大きな計算機のようなもので、帯電イオンは計算珠のようなもので、一度動かすたびに珠を動かすことに相当する。忠実度が高いほど動作が正確で、誤り率が低い。

IonQは2025年10月に、99.99%の二量子ビットゲート忠実度を達成したと発表し、世界記録を更新した。Quantinuumも2024年には99.9%以上の忠実度を実現している。コヒーレンス時間も最長で0.2秒から600秒と、超伝導路線の数十マイクロ秒を大きく上回る。

しかし、イオントラップの問題は、ビット数の拡張が難しいことだ。

イオンが増えれば増えるほど制御が難しくなる。したがって、「イオンをたくさん詰め込む」だけでは計算能力は向上せず、より複雑な制御システムを用いてこれらのイオンを管理しなければならない。結果として、イオントラップ量子計算は容易に計算能力の天井に達してしまう。

中性原子量子計算は、ここ2年で登場したばかりだが、最もホットな分野でもある。Infleqtion、Pasqal、QuEraが取り組んでいる。

その原理は、光格子を用いて中性原子の配列を捕獲し、光ピンセット(集束レーザービーム)で原子を固定することにある。最大の利点は、ビット数を千個以上に容易に拡大でき、コヒーレンス時間も長いことだ。

Infleqtionはすでに1600物理量子ビットのアレイを実現しており、これは現時点の記録だ。エンタングルメントの忠実度は99.73%に達し、中性原子企業の中で最高水準だ。

Infleqtionは2026年2月に上場し、CEOのマシュー・キンセラ(Matthew Kinsella)は「中性原子は科学の進歩から商業的な関連性へと進んでいる」と述べている。

最後に、光量子計算もあり、これは最も理解しやすいタイプだ。

前述のXanaduは、この路線を歩んでいる。

その技術原理は、光子を情報の担体とし、最大の利点は常温動作であり、真空や冷却システムを必要とせず、量子通信と計算の融合に天然に適していることだ。

Xanaduは2026年3月に最初の光量子企業として上場した。Auroraシステムは、最初のモジュール化・ネットワーク化された光量子コンピュータとされ、リアルタイムの誤り訂正能力を備え、2029年から2030年にかけて500論理量子ビットに到達する計画だ。

Auroraは4つの独立したサーバーラックで構成され、光ファイバーで接続されている。12個の量子ビット、35個の光子チップ、13キロの光ファイバーを含む。常温で動作し、光子検出器だけが低温環境を必要とする。

これが光量子の天然の利点だ。

しかし、光子間のゲート操作の忠実度は超伝導やイオントラップに比べて遥かに劣る。

光子は自然に相互作用しないため、2つの光子が干渉せずに通り抜けることができる。これにより、確定的な二量子ビットゲートの実現は非常に困難となる。光は伝播中に損失が生じるため、情報の損失も避けられない。

つまり、同じ計算能力を実現する前提で、光量子計算機の難易度は他の路線よりも格段に高い。

どちらがより信頼できるか?技術の成熟度から見ると、超伝導とイオントラップが最も商業化に近く、中性原子と光量子はまだ「潜在力がある」段階だ。

しかし、今目の前にある問題は、どの路線のコストパフォーマンスが最も良いかということだ。性能、コスト、展開などすべてを総合的に考慮する必要がある。

この上場ラッシュの本質は、資本市場が初めて異なる技術路線に投票を迫られたことにある。投資家はもはや「量子計算は重要だ」という壮大な物語だけに満足せず、コストと収益を見たいのだ。

Xanaduは初日の株価が15%上昇したが、その後10%以上下落。Horizon Quantumもアフターマーケットで18%下落。Infleqtionは2月の上場時に評価額180億ドルだったが、最高値は380億ドルに達したものの、4月以降は約237億ドルに下落している。

NVIDIAの量子野心

計算といえば、やはりNVIDIAを忘れてはならない。

NVIDIAの量子戦略は非常に明確で、CUDAの成功を再現し、CUDA-Q、すなわち量子版CUDAにしようとしている。

ただ、その前に、皆に「フォールトトレラント量子計算」の概念を少し解説しておきたい。

前述の量子ビットは非常に脆弱だ。温度、振動、電磁ノイズ、光子の損失、さらには不完全な操作一つひとつが量子状態の偏移を引き起こす可能性がある。

フォールトトレラント量子計算とは、その積み木に落下防止の仕組みを加えることだ。

多くの信頼性の低い物理量子ビットを組み合わせて、より信頼性の高い「論理量子ビット」を作り出す。たとえいくつかの物理量子ビットが誤っても、システムはそれを検知・修正し、計算を続行できる。

例えるなら、私があることを100人に伝え、その100人に伝言させるようなものだ。誰かが忘れたり間違えたりしても、少なくとも誰かが覚えていることを保証できる。

ハードウェア面では、NVIDIAはNVQLinkプラットフォームアーキテクチャを構築した。Ethernet経由のRDMAを用いてGPUと量子処理装置(QPU)をマイクロ秒レベルの遅延で接続し、遅延は4マイクロ秒未満だ。この遅延は量子誤り訂正の鍵となる。

最先端の量子処理装置では、誤り訂正のデコードウィンドウは数マイクロ秒しかない。NVQLinkはGPUがQPUのクロックサイクル内で誤り訂正のデコードを完了できるようにし、フォールトトレラント量子計算の実現に必要な条件を満たす。

ソフトウェア面では、NVIDIAはCUDA-QプラットフォームとCUDA-Q QECライブラリを開発し、統一されたプログラミングインターフェースを提供している。

開発者は同じ環境で、量子と古典のハイブリッドアプリを作成でき、ハードウェアの違いを気にせずに済む。2026年4月にリリースされたCUDA-Q QEC 0.6は、NVQLinkとの深い統合を実現し、リアルタイムGPUデコードをサポートしている。

エコシステム面では、NVIDIAは世界中のスーパーコンピュータセンターと協力している。日本のG-QuATやシンガポールの国家量子計算センターなど、既存のHPCインフラに量子処理装置を統合している。

Quantinuumも最新のHelios QPUと、今後のすべての処理装置をNVQLinkを通じてNVIDIAのGPUと連携させると発表している。Helios QPUには、リアルタイムの量子誤り訂正用にNVIDIAのGH200 Grace Hopperが搭載されている。

現在、量子計算は「実験室のプロトタイプ」から「大量の古典計算支援を必要とする段階」へと移行しつつある。量子誤り訂正、校正、ハイブリッドアルゴリズムには強力な古典計算能力のリアルタイム連携が必要であり、これはまさにNVIDIAの得意分野だ。

しかし、ここで一つ問題がある。それは、量子計算はAIではないということだ。

AIの爆発的な進展は、深層学習がGPU上のキラーアプリケーションだからこそだ。GPUだけが得意で、CPUでは難しいため、NVIDIAは絶好調なのだ。

少なくとも現時点では、量子計算において「キラーアプリ」はまだ登場していない。

企業が量子計算の時間を買いたいと思うようなアプリケーションは、今のところ見えていない。

フォールトトレラント量子コンピュータがいつ登場するかについての業界の予測は、あと5年から10年必要だとされている。物理AIに賭けるNVIDIAや、デジタルツインに賭ける同社は、量子計算に多くの時間とリソースを割く余裕はないかもしれない。

NVIDIAは2025年9月にQuantinuum、QuEra、PsiQuantumに連続投資し、イオントラップ、中性原子、光量子の三大路線をカバーした。これは、NVIDIAが広く投資している証拠だが、同時にどの路線が最終的に勝つか確信が持てていないことも示している。

もし、量子処理器のコヒーレンス時間が大幅に向上したり、新たなアーキテクチャがリアルタイム誤り訂正に依存しないものに進化した場合、NVQLinkは無意味になる。

NVIDIAは、「量子計算は必然的にフォールトトレラント化し、そのためには強力な古典計算支援が必要だ」と賭けている。

この仮説は現時点では合理的に見えるが、唯一の技術路線ではない。

AIは2012年のAlexNetから2022年のChatGPTまで、約10年かけて実験室から商業化へと進んだ。

しかし、量子計算は今もなお、より早い段階にある。もし商業化までに10年かかるとすれば、NVIDIAはそんなに長く待てるだろうか?

業界の真実は何か?

量子計算業界に目を向けると、ほとんどの企業は汎用量子コンピュータを買っていない。今、量子計算で稼ぐには、周辺製品に頼るしかない。

これこそが、この上場ラッシュの最も注目すべきポイントだ。

ほとんどの量子計算企業が実際に収益を上げているのは、彼らが主張する汎用量子コンピュータではなく、量子センサー、量子時計、制御チップ、ソフトウェアスタック、HPC統合サービスだ。

汎用量子コンピュータは、まだ規模化・商用化された成熟した市場を形成していない。

もっとわかりやすく言えば、業界はサイドビジネスの収益で長期的な主軸を養っている状態だ。

Infleqtionの主な収入源は、光学原子時計、量子RF受信機、慣性センサーで、エネルギーや宇宙分野に応用されている。

2025年6月までに、Infleqtionはすでに3台の量子コンピュータと数百の量子センサーを販売し、過去12ヶ月の収益は約2900万ドル、過去2年間の複合成長率は約80%だ。2026年の収益は4000万ドルと見込まれる。

量子センサーの価格は数万ドルから数十万ドルまでさまざま。研究用の原子時計や重力計は50万ドルを超えることもある。

生産規模の拡大に伴い、コストは今後10年で一桁下がると予想されており、固体レーザーレーダーのように、以前は数万円だったものが今や2000ドル程度になっている。

Xanaduも同様で、主な収入は量子計算周辺製品からで、収益源は主要顧客の三大企業だ。

さらに、ほぼすべての上場量子企業は多額の政府資金を受けている。

XanaduはDARPAの支援やカナダの「量子チャンピオン」プログラムの資金を獲得している。Infleqtion、IonQ、Rigettiも米国国防省やエネルギー省との契約を持つ。

肝心なのは、こうしたサイドビジネスの収益モデルがどれだけ長く持つかだ。

量子センサー市場は限定的だ。

原子時計や慣性センサーの市場は、主に国防、航空宇宙、研究分野に限定されており、数百億ドル規模の一般市場を支えるものではない。しかも、政府の契約も無限に続くわけではなく、地主も余裕はない。

クラウドサービスも、「量子優越性」が達成されるまでは規模拡大は難しい。現状の量子コンピュータはコストパフォーマンスで従来のコンピュータに劣るからだ。

あなたはこう言うかもしれない、SpaceXも初期は打ち上げサービスで火星計画を支え、Teslaもカーボンポイントで電気自動車の研究開発を補助していたと。

しかし忘れてはならないのは、SpaceXの打ち上げサービスは巨大な市場であり、ロケット技術は汎用的であり、衛星打ち上げと火星探査は同じ技術を使っていることだ。Teslaの電気自動車は早期は赤字だったが、少なくとも消費者に売れる商品であり、市場の需要も確かに存在していた。

一方、量子計算はどうか。量子センサーをいくら売っても、数十億ドルの企業が長期にわたって運営できるほどの収益にはならない。

量子計算業界の現状は少し窮屈だ。技術は進歩しているが、真の商業化にはまだ長い道のりがあり、特に起業家自身も正確な見通しを持てていない。

このモデルがどこまで続くかは、二つの要因にかかっている。一つは技術革新の速度だ。もしある路線で大きな突破口が開かれ、コヒーレンス時間が一桁向上したり、誤り訂正効率が大幅に改善されたりすれば、業界の商業化は加速する。

もう一つは資本市場の忍耐力だ。10年前にAIに投資した人々は、今のAnthropicやOpenAIを見て、量子計算にもより積極的に投資するだろう。

私の見解では、この上場ラッシュは、量子計算の商業化の始まりというよりも、資本市場がこの業界に対して一種の圧力テストを行っているに過ぎない。待てるなら今投資すればいい。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン