

12月10日凌晨,谷歌最新的量子芯片Willow横空问世。Willow拥有105个量子比特,在多个指标上都表现出最先进的性能,实现了两项重大成就:
首先,随着研究人员使用更多的量子比特进行扩展,Willow能够以指数级减少错误!这解决了量子纠错领域近30年来一直追求的一个关键挑战,即突破量子纠错阈值;
其次,Willow在五分钟内完成了一项标准基准计算,而当今最快的超级计算机之一Frontier完成同样的计算需要10的25次方(即10^25)年——是的,你没有看错,这个数字甚至远远超过了宇宙的年龄……
这家科技巨头很少表现得如此健谈——在宣布成果之前,谷歌就举行了媒体/分析师简报会,谷歌量子人工智能部门(Google Quantum AI)的创始人兼负责人Hartmut Neven、研究科学家Michael Newman、量子硬件总监Julian Kelly以及总监兼首席运营官Carina Chou都参与了这场会议。目前,谷歌的量子人工智能团队大约有300人,并计划继续扩充,谷歌还在加州大学圣巴巴拉分校拥有自己最先进的制造设施。
这项最新成果于12月9日发表于《Nature》,对谷歌的量子研究工作而言是一个重要的时刻:
突破QEC阈值(随着量子比特数量增加,错误率反而降低)是量子计算领域长期追求的目标,这基本上证明了构建大型纠错实用量子计算机是可能的。
图:谷歌的量子发展路线图
来源:谷歌

Willow快照——105个量子比特,专为可扩展性构建
谷歌量子硬件总监凯利表示:“如果你熟悉‘悬铃木’(Sycamore,谷歌早期的量子处理器),你可以认为Willow基本上具备了‘悬铃木’的所有优点,只是现在我们拥有了更好的量子比特,而且数量更多。我们相信这是迄今为止构建的最好的量子计算机。其架构看起来像超导transmon量子比特的方形网格,带有可调量子比特和耦合器。这个网格中有105个量子比特,平均连接数约为3.5,而设备内部通常是四路连接。

“在性能方面,我们将量子比特的相干时间T1值提高了五倍,从20微秒提高到100微秒。理解这一点非常重要,因为虽然我们用上一代芯片‘悬铃木’做了很多了不起的事情,但它一直受到相干时间所设定的性能上限的限制。这一次,我们大幅突破了这一限制,带来很大的提升空间。同时,与‘悬铃木’相比,我们的错误率降低了约两倍,并且这款芯片特别适合纠错,因此适合进行扩展并走向实际应用。”

量子霸权的另一种说法:从10000到10的25次方
2019年,谷歌宣称在“悬铃木”上实现量子霸权,引起很大轰动。
那时,谷歌首次展示了在‘悬铃木’量子芯片上只需几分钟就能完成的计算,而当时最快的超级计算机(橡树岭国家实验室的‘Summit’)在使用最好的经典软件的情况下,需要10000年才能运行该基准测试。谷歌让这个基准测试得到了大量关注,它被称为随机电路采样(RCS),现已在量子计算领域得到广泛应用,成为验证量子优越性的重要标准。
但是,当时IBM和其他公司对谷歌的说法提出了一些质疑。
“当我们在2019年公布这一结果时,经典计算和量子计算之间出现了一种类似红队与蓝队的分野态势。人们会说‘在经典计算机上(解决同样的问题)你可以不用花费大量时间,而是使用大量内存’或是‘你可以使用量子模拟算法’。虽然这些说法在原则上是正确的,但实际上,要将10000年的时间降下来需要花费很多年,”Hartmut Neven表示,“现在,我们的量子处理器变得更优越了,如果你继续在谷歌最新、最强大的芯片上运行随机电路采样,意味着你现在可以使用更多的量子比特和更多的门操作,与此同时在经典机器上模拟或运行相同计算所需的时间会以双指数级速率飙升,这真的是一个令人难以置信的、快速发展的轨迹。从2019年的10000年到现在的10的25次方年,这就是我们的进步。”
图:Willow量子芯片与其他硬件的对比
来源:谷歌
谷歌和IBM都致力于研究超导量子比特,两者之间的持续竞争将推动这项技术的发展,造福整个量子计算领域。

突破量子纠错阈值
展示突破QEC阈值的能力是Willow的最大看点。从“悬铃木”系列芯片发展到Willow芯片,谷歌在量子芯片上取得了诸多进展。但到目前为止,超导量子比特的高错误率一直限制着量子计算的实用性。
谷歌研究科学家Michael Newman解释道:“量子信息极其脆弱。它可能会受到许多因素的干扰。不幸的是,为了发挥大规模量子计算的潜力,我们有时需要数十亿甚至数万亿个步骤才能可靠地处理这些信息,通常失败率大约是千分之一或万分之一。因此需要找到几近完美的量子比特,仅靠工程技术我们无法做到这一点。”
制造“几近完美的量子比特”的方法是量子纠错(QEC)。基本思路是使用共同工作的许多物理量子比特来表示一个逻辑量子比特,物理量子比特共同纠错,但是使用的量子比特越多,发生的错误就越多——规模的增大通常伴随着更多的出错概率。
“早在90年代,就有人首次提出:如果量子比特足够好,好到超越了一个叫做‘量子纠错阈值’的神奇界限,对其进行扩展时,错误率就不会像预期中的那样上升,实际上它甚至还会下降。直到现在都还没有人实现这一点,”Newman表示:“我们在Nature上发表的论文表明,使用Willow处理器,我们终于可以低于这个阈值。更具体地说,随着Willow在这些分组中使用更多的量子比特,错误得到了指数级的快速抑制。”

这些逻辑分组如下图所示,这些逻辑量子比特被称之为表面码。最左边是谷歌去年的“悬铃木”处理器,它的错误率是10的- 2次方,红色和蓝色的闪烁是检测到的错误。在Willow上,可以看到错误率在物理上提高了约两倍。在量子比特和操作提高两倍时,逻辑操作即编码量子比特,实际上提高了一个数量级以上——这是因为一旦超过这个关键阈值,处理器的微小改进会被量子纠错以指数级放大。所以当从左向右移动时,每次对量子比特数量的翻倍都会带来芯片性能的翻倍。谷歌表示,如果再进一步,可以达到第三个里程碑,即长寿命逻辑量子比特。
图:分组示意图
来源:谷歌
在整个行业范围内,对于稳健逻辑量子比特的合适大小是多少存在争议。Newman表示:“普遍的看法是,为了实现这些真正的大规模应用程序,例如里程碑6类型的性能级别,每个逻辑量子比特需要大约1000个物理量子比特。但我们在算法和理论方面做了大量研究,结果表明,我们可能(每个逻辑量子比特)只需要大约100个量子比特,这大致就是它应该达到的水平。我们的目标是构建拥有100万个物理量子比特的量子计算机,将其除以几百个,就是我们预计届时拥有的逻辑量子比特数量。但我认为(大家)对此意见不一。”
许多公司正在努力开发逻辑量子比特。Microsoft和Quantinuum最近就报告了一种用于构建逻辑量子比特的经典量子混合方法。

现在就有用的量子计算
谷歌阐述了未来的发展路线图,讨论了技术目标(尽管不是非常详细)和业务里程碑。虽然主要的工作重点仍是在这个十年末左右实现纠错量子计算的容错能力,但谷歌也在关注近期的量子计算应用。
谷歌还讨论了广泛的量子业务计划,包括制造自己的芯片、构建自己的系统,到提供量子云服务,此外还计划进行潜在的本地部署。
“我想的是,我们构建量子计算机不仅仅是因为这是一件极具挑战性的事情,或者是一个有趣的科学项目。这些都是事实,但我们真的希望获得没有量子计算就无法实现的新能力。当今的量子处理器,甚至包括之前的几代,如‘悬铃木’,已经用于数十项科学发现。”Carina Chou如是说道。
图:量子计算的近期应用实例
来源:谷歌
“然而,还有一个重要的挑战需要注意。到目前为止,在量子处理器上做出的每一项发现虽然令人兴奋,但也可以使用经典计算的不同工具来完成。所以我们正在关注的下一个挑战是,我们能否展示超越经典性能的能力,即在具有现实世界影响的应用中,经典计算机实际上无法实现的性能。”
图:谷歌的下一步规划:走向实际应用
来源:谷歌

下一步
谷歌目前对于提供能够解决经典计算机无法解决的现实世界问题的量子计算服务很感兴趣。但是目前的量子计算服务都无法做到这一点,谷歌的方法侧重于“真正解决最困难的技术问题”,而不是直接跳到扩展或商业产品。与此同时,谷歌已与学术界、初创公司以及大公司中的外部合作伙伴建立了早期合作关系,以真正帮助开发量子计算系统,研究在未来有用的应用类型。
“在进入市场的模式方面,有多种选择。我们考虑最多的一种是通过云提供访问,这是谷歌目前正在努力的方向,”Carina Chou表示,“除此之外,我认为肯定有机会支持在谷歌运行的任务,以及潜在的更大规模、特定的本地或其他类型的模式,所以这些还都不确定,我们目前正在致力于提供量子计算云服务。”
Neven补充道:“Willow芯片是一款很棒的硬件,它具有强大的原始计算能力。有了这样一个平台,你可能能够运行有用的算法。这不是我们现在要讨论的内容,但我们会做出承诺,请继续关注我们。”

Google Quantum AI的创始人兼负责人Hartmut Neven提到:“我的同事有时会问我为什么离开蓬勃发展的人工智能领域而专注于量子计算。我的回答是,两者都是我们这个时代最具变革性的技术,但先进的人工智能将极大地受益于量子计算的应用——这就是我将我们的实验室命名为‘量子人工智能’的原因。正如我们在RCS中看到的,量子算法在基本缩放定律方面具有优势。对于人工智能至关重要的许多基础计算任务也有类似的缩放优势。因此,量子计算对于收集经典机器无法获取的训练数据、训练和优化某些学习架构以及对量子效应重要的系统进行建模将是不可或缺的。这包括帮助我们发现新药物、为电动汽车设计更高效的电池以及加速核聚变和新能源替代方案的进展。这些未来改变游戏规则的应用中的许多在经典计算机上是不可行的,它们有待于用量子计算来解锁。”

忆往昔
2023年2月,Google Quantum AI团队在《自然》期刊上发表题为《Suppressing quantum errors by scaling a surface code logical qubit》(通过扩展表面码逻辑量子比特来抑制量子错误)的研究论文,在国际上率先突破量子纠错的盈亏平衡点,实现量子计算机的错误率随着比特数增加而降低,证明了超导量子比特系统的性能足以克服增加量子比特数量带来的额外错误。

2月22日,Google DeepMind、Quantinuum、阿姆斯特丹大学在arXiv平台发布题为“Quantum Circuit Optimization with AlphaTensor”的研究论文。研究人员专注于容错量子计算中最昂贵的门(即 T 门),解决了 T 计数优化的问题,即最大限度地减少实现给定电路所需的 T 门数量。为了实现这一目标,研究人员开发了 AlphaTensor-Quantum,这是一种基于深度强化学习的方法,它利用了优化 T 计数和张量分解之间的关系。与现有的 T 计数优化方法不同,AlphaTensor-Quantum 可以整合有关量子计算的特定领域知识并利用小工具,从而显着减少优化电路的 T 计数。AlphaTensor-Quantum 在一组算术基准上优于现有的 T 计数优化方法(即使在不使用小工具的情况下进行比较)。值得注意的是,它发现了一种类似于 Karatsuba 的有限域乘法的有效算法。AlphaTensor-Quantum 还为 Shor 算法和量子化学模拟中使用的相关算术计算找到了最好的人工设计解决方案,从而证明它可以通过以完全自动化的方式优化相关量子线路来节省数百小时的研究时间。

2024年6月,新墨西哥大学、Google Quantum AI在《PRX Quantum》期刊上发表题为“Fault-Tolerant Quantum Computation Using Large Spin-Cat Codes”(使用大自旋猫码的容错量子计算)的研究论文。研究团队使用自旋猫码,基于编码在大自旋高维量子比特中的量子比特构建了一个容错量子纠错协议,类似于连续变量猫编码。这种为主要错误源定制的纠错码可以表现出更高的阈值和更低的资源开销。此外,研究团队提出了一种免测量的纠错方案,可以在不依赖校验子测量的情况下解决振幅错误。这些发现为在大自旋中编码量子比特铺平了道路,有可能在量子信息处理中实现容错、高阈值和减少资源开销。

2024年8月,Google Research、马萨诸塞大学阿默斯特分校、Google DeepMind、加州大学圣巴巴拉分校、康涅狄格大学、奥本大学、苏黎世联邦理工学院、麻省理工学院、加州大学河滨分校、耶鲁量子研究所、耶鲁大学在arXiv平台发布题为“Quantum error correction below the surface code threshold”的研究论文(即12月9日的《Nature》)。研究团队提出了两个在该阈值以下运行的表面码内存:在72量子比特处理器中实现了一个集成了实时解码器的、码距为5的表面码,在105量子比特处理器中实现了一个码距为7的表面码。研究团队发现,当码距增加2时,更大量子内存的逻辑错误率受到错误抑制因子Λ=2.14±0.02的抑制。最终得到了由101个量子比特组成的、码距为7、纠错后错误率为0.143%±0.003%的表面码。码距为5的量子内存无法实现收支平衡,而码距为7的量子内存超过了盈亏平衡点,比其最佳物理量子比特的寿命高出2.4±0.3倍。为了探究纠错性能的极限,研究团队运行了码距为29的重复码,发现逻辑性能受到每小时(即3×10^9次循环)约发生1次成因尚未明确的罕见关联错误事件的限制。结果表明,如果对其进行扩展,设备性能足以实现大规模容错量子算法所需的运行要求。最后,研究团队证实,即便是实时解码,码距为5的72量子比特处理器也能够在保持低于阈值的状态下,实现可进行一百万次循环、循环时间为1.1μs、平均延迟为63μs的解码器。

2024年10月,Google Quantum AI在《Physical Review Letters》期刊上发表题为“Optimization of Decoder Priors for Accurate Quantum Error Correction”(优化解码器先验以实现准确的量子纠错)的研究论文。研究团队通过引入一种受强化学习启发的方法,成功校准了解码器的先验,显著降低了逻辑错误率。在Google Sycamore处理器上进行的重复和表面码记忆实验中,该方法的解码精度分别提升了16%和3.3%,超过了现有的最佳无校准方法。这一成果为提高近期和未来量子设备的性能提供了重要工具,标志着量子纠错技术向实用化迈出了重要一步。

2024年11月,Google DeepMind、Google Quantum AI组成的研究团队在《Nature》期刊上发表题为“Learning high-accuracy error decoding for quantum processors”(用于量子处理器的高精度错误解码的机器学习)的研究论文。在本文中,谷歌的研究人员开发了一个基于transformer的递归神经网络,它学习解码表面码。解码器在处理来自谷歌的Sycamore量子处理器的真实数据时,在码距为3和码距为5的表面码方面优于其他最先进的解码器。在最远11的码距上,解码器利用软读取和泄漏信息,在具有真实噪声(包括串扰和泄漏)的情况下保持其在模拟数据上的优势。在对近似合成数据进行训练后,解码器通过在有限的实验样本预算上进行训练来适应更复杂但未知的潜在错误分布。该工作说明了机器学习通过直接从数据中学习来超越人类设计的算法的能力,突出了机器学习是量子计算机解码的有力竞争者。

参考链接
[1]https://blog.google/technology/research/google - willow - quantum - chip/
[2]https://www.nature.com/articles/s41586 - 024 - 08449 - y
[3]https://www.hpcwire.com/2024/12/09/google-debuts-new-quantum-chip-error-correction-breakthrough-and-roadmap-details/
江苏省海外人才创新创业联盟,是由江苏省科学技术协会主管的非法人非营利社会组织,简称苏创联。
2021年6月,苏创联由江苏省科协、世界绿色设计组织、欧盟中国城市发展委员会、中欧生命科学联盟、日本华侨华人博士协会、南京江北新区管委会、苏州工业园区管委会、南京江宁开发区管委会、江苏省绿色金融专业委员会等9家单位联合发起,秘书处设于中研绿色金融研究院,日常运营由科甄-中研在线团队负责。
联盟秘书处:
南京江北新区滨江大道396号3号楼4层
微信公众号:suchuanglian114
商务联系:
微信: w18701805508
邮箱: 18701805508 @139.com

