量子技术正加速从实验室走向现实世界,《Science》上的一篇文章认为,该领域正处于一个转折点,类似于晶体管和现代计算兴起之前的早期计算时代。
如果把量子计算比作经典计算,现在大约处于1950年代到1970年代之间,也就是晶体管刚刚发明,到集成电路萌芽的阶段。
这篇由芝加哥大学、斯坦福大学、麻省理工学院、奥地利因斯布鲁克大学和荷兰代尔夫特理工大学的科学家共同撰写的文章,评估了快速发展的量子信息硬件领域,概述了塑造可扩展量子计算机、网络和传感器的主要挑战与机遇。
芝加哥大学分子工程与物理学Liew家族教授、芝加哥量子交流和量子研究所主任David Awschalom表示:“基础物理概念已经确立,功能系统已存在,现在我们必须培养合作和协调努力,以实现这项技术的全部实用规模潜力。我们该如何应对规模化和模块化量子架构所面临的挑战呢?”
对于这一问题,文章给出了一个关键答案,那就是跨越一系列已知的、艰巨的工程与规模化鸿沟。
高TRL并不等于“好用”
在进入正题之前,我们需要打破一个认知误区。文章指出,科学家们通过ChatGPT和Gemini等大模型工具,对当前六大主流量子平台进行了“技术成熟度”(TRL)评估。
TRL评估技术的成熟度范围为1(在实验室环境中观察到的基本原理)到9(在操作环境中得到验证),尽管更高的TRL仍可能适用于显示出更高系统复杂程度的早期技术。
根据结果,我们会发现一个非常有趣的现象:
-超导量子比特在量子计算领域拿到了TRL6-8的高分。
-光子学在量子网络领域甚至拿到了TRL6-9。
-自旋缺陷在量子传感领域更是高达TRL8-9。
图:新兴量子平台的技术成熟度快照
看到这里,你可能会想:“TRL9不是意味着已经在运行环境中验证了吗?那岂不是马上就能商用了?”
这正在这篇文章的犀利之处。麻省理工学院的William D. Oliver教授打了一个比方,比如1971年的Intel 4004处理器,在当时也是TRL9。它是一款成熟的商业产品,能用吗?能用。但它只有2300个晶体管,每秒运算几万次。你能用它来运行现在的ChatGPT吗?显然不能。
同样地,如今量子技术达到的高TRL水平并不意味着已实现了最终目标,也不意味着科学工作已经完成、只剩下工程层面的问题有待解决。相反,这反映出一种重要但相对有限的系统级演示成果业已达成,而这一成果仍需得到大幅改进和扩展,才能真正实现其全部潜力。
可见,一个高TRL(7-9级)仅意味着该系统已在“操作环境”中完成原理性演示,绝不等于其性能已满足最终应用需求。因此,在评估技术成熟度时,背景因素也至关重要。
图:扩展经典电子处理器的历史视角
此外,这些结果提供了一幅关于该领域进展的对比性概览。尽管先进的原型机已展示了系统运行和公共云接入的功能,但其原始性能仍处于早期开发阶段。例如,许多具有实际意义的应用,包括大规模量子化学拟,可能需要数百万个物理量子比特,而其错误性能远远超出了当前技术可实现的范围。
这也纠正了公众和部分投资者将“云上可访问”等同于“技术成熟”的认知偏差,将讨论焦点从“有无”转向了“优劣”与“规模”。
中国的量子技术发展,尤其是光量子计算和超导量子计算,同样符合这一判断。比如,中国科研团队在光量子计算原型机“九章”和超导量子计算原型机“祖冲之”系列上取得了世界领先的量子优越性演示,这标志着我们在特定赛道上达到了极高的基础研究TRL。
然而,正如国际同行所面临的,将这些卓越的原型转化为可编程、可纠错、能运行实用算法的大规模通用量子计算机,我们同样面临着材料、集成、控制等全栈式的工程挑战。国内外现阶段都处于从“原理验证”向“工程优化”和“系统集成”的关键转型期。
六大量子硬件平台
无论是国内还是国外,量子竞争的实质主要还是围绕硬件平台展开。文章梳理了六大量子硬件平台的发展现状,包括超导量子比特、离子阱、自旋缺陷、半导体量子点、中性原子和光学光子量子比特。
超导量子比特以其纳秒级的超快运算速度占据先发优势,其单/双量子比特门保真度已逼近实用门槛(99.9%)。然而,其对稀释制冷机的重度依赖,以及随着比特数增加而呈指数级增长的低温控制线缆,赫然成为其迈向通用化的致命缺点。
半导体量子点最大的优势在于它可以站在巨人(CMOS)的肩膀上。它利用成熟的硅制造技术,天然具有大规模、低成本扩展的独特优势。其挑战已不再是原理性问题,而是能否如传统芯片行业一样,逐步从实验室迁移到工业代工环境。
中性原子和离子阱平台则展现了另一种可能。原子阵列量子计算机已能操控数千个中性原子,离子阱系统也达到数百离子规模。这些系统的优势在于量子比特的自然均匀性和长相干时间,但挑战在于量子门速度和系统复杂度。
光学光子量子比特和自旋缺陷平台在量子网络和传感领域表现突出。核心在于它们能够在更宽松的环境下(甚至室温)工作,且具有优异的长距离相干特性。它们或许不是通用量子计算机的终极解,但这两类技术可能最先进入实用阶段。
图:硅光子技术发展的历史视角
历史透镜下的挑战
文章跳出量子物理本身,从经典电子学和光子学的扩展与发展历史中提炼出当前量子技术走向商业化的四座大山。倘若这些挑战不解决,量子技术就永远只是实验室里的玩具。
第一座大山:制造
当前的许多量子芯片,其制造工艺仍停留在大学实验室或小型定制作坊的“手搓”阶段。但要普及,必须上流水线。这形成了一个悖论:工业界成熟、低成本的材料,对量子态而言损耗太高;而量子所需的超纯净材料,如钛酸锶、铌酸锂等新材料,其制备和集成尚不兼容于标准的代工流程。
就像当年半导体行业为了提纯硅并引入EUV光刻,花费了几十年时间“死磕”材料与工艺。量子技术现在需要的,是新一代的“炼金术”,开发出既能支持量子性能,又可大规模、低成本制造的新型材料与工艺体系。
第二座大山:布线
目前的量子计算机,每一个量子比特的精细控制,几乎都需要一根独立的线缆连接到外部控制系统。当比特数从几十个扩展到百万级时,拉几百万根线在物理上是不可接受的,这正是所谓的“布线的暴政”。
可实现的解决方法是系统集成化,即将控制电路与量子芯片紧密集成(如低温CMOS技术),或采用光纤多路复用技术替代电缆。但这种近距离集成又立刻引发了第三座大山的威胁——热量。
第三座大山:热与功率
量子态对热极其敏感。超导量子比特需要依赖体积庞大的稀释制冷机维持在毫开尔文(mK)级别。若要扩展到数百万个量子比特,现有制冷技术在功率密度和体积上将无法满足需求。更进一步讲,中性原子平台所需的数千个高功率激光器阵列,其总能耗也极其惊人。
如果未来的通用量子计算机需要一座核电站来供电和制冷,它就永远不可能实现产业化,更不可能真正走进“寻常百姓家”。能效比的突破,是决定量子技术能否从“科学奇观”走向“实用工具”的重要水平线。
第四座大山:校准
校准是常常被公众忽略但对运行至关重要的挑战。每个量子比特都不是完美的,它们之间还会发生复杂的串扰。在每次开机或环境变化后,系统都需要重新进行耗时的校准。随着比特数增加到万级、亿级,单是校准时间就可能超越实际的计算时间。
面对这种指数级增长的校准时间,手动或半自动校准已经走到尽头。量子计算必须引入机器学习和AI控制,实现全自动化的校准、故障检测和动态控制,将人的经验和时间从繁琐的底层操作中解放出来。
上述这四座大山被文章作者们精准地概括为现代版的“数字暴政”。随着量子系统复杂度的提升,这些挑战将持续推进。
历史的耐心
面对这些挑战,指望打造一个巨大的、一体化的单体量子计算机几乎是一条死路。文章给出了明确的破局思路,即借鉴经典计算的发展经验,走“量子数据中心”之路,实现模块化。
图:未来的模块化架构
未来的量子计算机不再是单一巨系统,而是由多个中等规模、功能特定的模构成,如计算模块、存储模块、通信模块,这些异构模块通过高保真度的“量子互连”技术链接起来。
这种策略的优势就在于,它能有效地将布线、制冷和控制的复杂性限制在每个模块的内部,从而避免了系统复杂度随比特数指数级增长的困境。
要实现模块化愿景中,光子学将是关键。无论底层硬件采用何种技术路线,最终都需要通过光子来进行模块间的高保真、长距离相干连接,形成一个功能完善的量子网络。
现在,模块化量子架构已不再仅仅停留在理论层面,国内外领先团队已在探索量子芯片间的相干连接、光-电量子接口等关键技术。
耐心是许多里程碑式发展的关键要素,量子技术的发展也可以置于历史的尺度下去审视。如果参照报告中反复引用的经典计算发展史:
-1947年晶体管发明,到1971年Intel 4004商用,用了24年。
-Intel 4004到今天的NVIDIA Blackwell GPU,算力提升14个数量级,用了50多年。
-EUV光刻技术从1990年代中期立项研发,到2019年投入制造,磨了20多年。
当前,量子技术现在正处于那个“1950-1970”的区间。虽然它已在量子传感、量子密钥分发等特定高TRL领域开始渗透,但在通用的容错量子计算领域,我们可能仍需要10年甚至更久的耐心,去完成从“原理演示”到“工业级容错机器”的本质性跨越。
因此,我们要做的就是耐心等待,不要过于高估量子技术的一两年内的变化,但也绝对不能低估它未来十年的爆发力。
[1]https://www.science.org/doi/10.1126/science.adz8659
[2]https://chicagoquantum.org/news/when-will-quantum-technologies-become-part-everyday-life

