我一直密切关注量子计算,必须说——2024年确实与以往的炒作周期不同。每年都会有一些听起来改变世界的公告,然后就没有下文了。去年感觉不一样。几个月内,三个完全不同的团队采用完全不同的方法,同时达到了重大里程碑。当这些成就跨越不同硬件架构同时发生时,实际上意味着一些东西。这个领域在前进,而不是只是在原地打转。让我详细分析一下到底发生了什么,以及为什么这很重要。



让我们从2024年12月谷歌的Willow公告开始。这次引起了所有关注,说实话,理由充分。他们在圣巴巴拉的设施中制造了一个105量子比特的处理器,并展示了研究人员近30年来一直在追求的成果。核心点:增加更多的量子比特实际上使错误率下降而不是上升。我知道这听起来很基础,但其实并非如此。几十年来,量子计算的整个难题在于更大的系统噪声更大。你建更多的量子比特,就会出现更多的错误,错误会级联扩散。Willow通过其错误校正架构打破了这一模式。他们达到了所谓的“阈值以下操作”——即规模化实际上能帮到你而不是害你。

他们在《自然》杂志上发表了技术细节,这很重要,因为之前的量子计算声明都曾受到合理的质疑。公开方法论接受审查,确实不同凡响。他们同时进行的基准测试也瞬间成名——Willow在不到五分钟内解决了一个特定计算,而用当今最好的经典超级计算机需要10万亿年。那是10的25次方,差不多是宇宙目前年龄的百万倍。谷歌量子AI的创始人Hartmut Neven基本上表示,他们已经超过了盈亏平衡点。

但说实话,Willow的测试仍然很有限。它证明了某些计算对这款芯片来说在经典计算上是不可能的,但还不能用它进行药物发现或气候模拟。真正的价值在于架构——它表明大规模的误差校正量子计算不再只是理论,而是可以实际构建的工程路径。

但2024年,Willow并不孤单。在那次公告前的八个月,微软和Quantinuum发布了某些成果,虽然媒体关注较少,但在业内研究人员中引起了更大关注。他们展示了逻辑量子比特,其错误率比物理量子比特低800倍。这是一个关键区别,研究界之外几乎没人提及。物理量子比特是实际硬件——它们噪声大、对温度和振动敏感。而逻辑量子比特由多个物理量子比特组成的结构冗余存储信息,可以检测和校正错误而不破坏计算。问题一直在于,构建逻辑量子比特需要大量物理量子比特,开销巨大,变得不切实际。而错误率降低800倍,突然让逻辑量子比特变得更现实,而不是理论上的。

微软在2024年11月进一步推进。他们与Atom Computing合作,利用超冷中性钇原子创建并纠缠了24个逻辑量子比特——又创纪录了。他们达到了单量子比特操作的门保真度99.963%,双量子比特门的保真度99.56%。中性原子方法使用激光冷却的原子,通过光镊固定。与谷歌超导方法完全不同的硬件。这一点很重要,因为意味着多条通向容错量子计算的路径同时在推进。这个领域不再只押注一种方法。

随后,Quantinuum继续突破。2024年12月,他们纠缠了50个逻辑量子比特——又创纪录。逻辑量子比特时代不再是未来,而是现在进行时。

IBM在2024年的贡献较为低调,但如果你关心实际量子计算的落地,意义同样重大。11月,他们推出了Heron R2处理器——156个量子比特,是Heron架构的第二代。量子比特数量不如性能提升重要。他们的2Q门错误率降至8×10的负4次方。系统现在可以执行多达5000个两量子比特门的量子电路。之前在最好的硬件上运行超过120小时的任务,现在大约2.4小时就能完成。速度提升约50倍。

在2024年早些时候,IBM还完成了自设的“100×100”挑战——在Heron上运行深度为100的100量子比特电路,耗时数小时。这是实用规模的计算,无法用经典方法暴力破解。这代表了IBM一贯的稳步、渐进式进展。

更具技术意义的是,IBM在《自然》杂志发表了一篇关于新型误差校正码——双变量自行车qLDPC码的论文。传统的表面码量子误差校正大约需要3000个物理量子比特来编码一个可靠的逻辑量子比特。而IBM的新码只用144个数据量子比特和144个辅助量子比特就能实现类似的误差抑制——开销减少了10倍。这种效率提升让容错量子计算不再像遥远的梦想,而更像是一个有明确解决方案的工程问题。

还有一部分不常被提及但同样重要:在2024年8月,NIST正式发布了首个后量子密码学标准——旨在抵抗未来量子计算攻击的算法。其中两个算法由IBM在苏黎世的研究团队开发。这为何对量子计算的突破意义重大?因为这是全球标准机构首次明确承认,能够破解当前加密的量子计算机不再只是理论。政府和企业需要开始过渡,等待具有实际破坏力的量子计算机到来。标准发布到广泛部署的时间通常需要十年以上。NIST的2024年决定启动了这个倒计时。

对于区块链和数字资产基础设施来说,这直接关系到未来。当前保护钱包和交易的加密方案,最终都需要量子抗性替代方案。这不是“可能”,而是“必然”。

那么,2024年实际上证明了什么,又没有证明什么?很容易看完这些就觉得量子计算已经到来了。其实不完全如此,参与的研究人员也明确表示。Willow还不能用来做药物发现。它展示了阈值以下的误差校正和一个基准测试,但距离商业化应用仍有很大差距。Quantinuum的50个逻辑量子比特可以检测错误,但完整的误差校正——在不破坏量子态的情况下检测和修正错误——仍然是个难题。微软Atom Computing的纪录使用了中性原子,需要极其复杂的激光基础设施,目前还没有大规模实现。IBM的Heron R2是2024年最接近实际部署的系统,已在IBM量子云平台上,企业客户在运行工作负载,100×100的基准测试也展示了实用规模的成果。但IBM的Starling处理器——第一个完全误差校正的系统,预计要到2029年才能实现。

2024年实际上证明的比没有证明的更重要。这个领域停止了单一方向的进展,开始在硬件、误差校正、逻辑量子比特、软件效率、密码标准等多个方向同步推进。作为一个研究社区,它开始变得不像纯粹的理论物理,更像一个具有可独立验证和复制的里程碑的工程领域。2024年量子计算的最新突破,不仅仅是某个公司赢了,而是整个生态系统同时成熟。

展望2024年之后的轨迹,问题不再是大规模容错量子计算是否可能。2024年的突破已经证明了多种硬件路径的可行性。现在的问题是哪个路径扩展得最快,以及哪些应用能尽快带来投资回报。谷歌的下一个里程碑是实现完全容错操作。微软的路线图目标是在未来几年内实现50到100个纠缠的逻辑量子比特,用于材料科学或化学等实际突破——这是他们自己的估计。IBM的Starling处理器旨在从量子实用性过渡到量子优势,解决商业上有价值的问题。

从2024年起的方向是一致的。我们不再问“这是否可行”。而是问“哪个路径会赢,以及速度有多快”。这与五年前的讨论完全不同。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论