专访谷歌量子AI团队:为什么说Willow是里程碑式的突破?

专访谷歌量子AI团队:为什么说Willow是里程碑式的突破?
2024年12月11日 15:56 科技行者

提到量子计算,美国理论物理学家理查德·费曼曾说过一句令人难忘的话:“大自然不是经典的,如果你想模拟大自然,你最好把它变成量子力学。”

在过去30年里,量子计算存在一个根本性的挑战:随着量子比特数量的增加,错误率会急剧上升。然而,这个看似不可逾越的鸿沟,现在终于出现了突破性曙光。

2024年12月10日,谷歌在《自然》发表了最新量子芯片Willow的研究成果,再次取得了里程碑式的突破,主要体现在两个方面:

· 首先,Willow实现了随着量子比特数量增加、而指数级降低错误率的目标,通过逐步扩大量子比特阵列规模,从3x3到5x5再到7x7,每次都能将错误率降低一半。这是自1995 年 Peter Shor 引入量子纠错以来,一直是该领域面临的艰巨挑战。

· 其次,更受关注的是其计算能力的突破。在随机电路采样(RCS)基准测试中,Willow用不到5分钟就完成了一项计算,而当今最快超级计算机Frontier则需要10^25年才能完成,也就是10,000,000,000,000,000,000,000,000年。为了让大家直观理解这个数字的概念,谷歌说“这个时间比宇宙的年龄还要大”。

科技行者Techwalker参与了此次的谷歌视频简报会,谷歌量子AI创始人兼负责人Hartmut Neven(哈特穆特·奈文)在会上表示:“当我们于2012年创立谷歌量子AI团队时,愿景是构建一个有用的大规模量子计算机,利用我们今天所知的量子力学(自然界的‘操作系统’)来推动科学发现、开发有益的应用、并解决一些社会的关键挑战。”

谷歌的量子AI团队由哈特穆特·奈文领导,谷歌在圣巴巴拉建立了专门的量子芯片制造工厂,在该领域进行深度投入。

有意思的是,谷歌量子硬件总监Julian Kelly(朱利安·凯利)在简报会上介绍说,此前谷歌量子芯片Sycamore是在加州大学圣巴巴拉分校的一个共享洁净室中建造的——该实验室于2013年宣布成立,为谷歌研究人员提供了更多工具和更强大的功能。而此次,Willow是在谷歌自己的专用超导芯片制造设施生产,可以更好地控制制造工艺参数,良品率和一致性得到提高。

“你可以认为 Willow 基本上继承了 Sycamore 的所有优点,但实现了更大的里程碑式的突破。”朱利安·凯利说。

指数级量子误差校正:低于阈值

量子比特(qubit),是量子计算机的运算单位,但它们非常“不稳定”,往往会因周围环境而丢失信息,通常情况下,使用的量子比特越多,错误就会越多——所以,“错误”是量子计算面临的最大挑战之一。

但谷歌这次做到了相反的效果:当谷歌量子芯片Willow 中使用的量子比特越多,错误反而大幅减少了,谷歌测试了越来越大的物理量子比特阵列,从 3x3 编码量子比特网格,扩展到 5x5 网格,再到 7x7 网格——每次扩大时,错误率都能减少一半。换句话说,谷歌实现了错误率的指数级降低。

这里稍作解释。在量子纠错中,涉及将许多物理量子比特放在一起并让它们协同工作,也就是通过创建一个“逻辑量子比特”(logical qubit)来纠正错误,3×3、5×5、7×7这样的组合被称为"逻辑量子比特”。

1个中心位置的物理量子比特存储实际的量子信息(数据比特),周围8个物理量子比特是辅助比特(也叫同步比特或锚定比特),这样一个3×3的排列实际上只能存储1个比特的信息,但它能够保护这个信息不被环境干扰破坏。

就好比是运输一个易碎品(量子信息),中心是易碎品本身(数据比特),周围8个位置是包装泡沫(辅助比特),虽然看起来用了9个空间位置,但实际运输的有效物品只有中心的那一个,但这些"包装泡沫"让运输变得更安全可靠。

这就解释了为什么量子计算机需要这么多“物理量子比特”,而且物理量子比特数量看起来很多,但实际能用于计算的"逻辑量子比特"数量要少得多:比如要存储10个比特的信息,使用3×3的方案就需要90个物理量子比特(10×9),用5×5方案则需要250个物理量子比特(10×25),用7×7方案需要490个物理量子比特(10×49)。这种"冗余"是必要的,因为它保证了量子计算的可靠性。

“我们希望随着这些集合越来越大,纠错能力也越来越强,这样量子比特就会越来越准确。问题是,随着这些东西越来越大,出错的机会也越来越多,所以我们需要足够好的设备,这样当我们把这些东西做得越来越大时,纠错能力就能克服我们引入系统的这些额外错误。”谷歌实验室研究科学家Michael Newman(迈克尔·纽曼)在简报会上说。

谷歌称,这是一个30年来一直未实现的目标,直到现在Willow实现了突破——实现了每次逻辑量子比特的大小增加,从 3×3 到 5×5 再到 7×7,错误率就会呈指数下降。

这就像是在搭积木,以前积木堆得越高就越容易倒,但现在谷歌的这项研究,不但让积木能堆得更高,而且越高反而越稳固。这也就有力地表明,未来实用的超大型量子计算机确实可以构建。

这一突破在业界被称为“低于阈值”——即能够在增加量子比特数量的同时降低错误。在《自然》杂志的这篇论文中,研究人员写道:“虽然许多平台已经展示了量子纠错的不同特性,但至今没有一个量子处理器明确地表现出低于阈值的性能。”

“如果不低于阈值,那么进行量子纠错真的毫无意义,这确实是未来实现这项技术的关键因素。”朱利安·凯利补充说道:“量子比特本身的质量必须足够好,才能进行纠错,我们的纠错演示表明,在集成系统层面,一切都同时工作,这不仅仅是量子比特的数量、T1 或双量子比特错误率的问题。这也是这项挑战长期以来一直难以解决的原因之一。”

“Willow 让我们更接近运行传统计算机上无法复制的实用、商业相关算法。”哈特穆特·奈文说道。

5分钟完成一次计算,而Frontier则需要10^25年

为了衡量 Willow 的性能,谷歌使用了随机电路采样 (RCS,Random Circuit Sampling) 基准。“RCS 由谷歌量子AI团队首创,现已被广泛用作该领域的标准,是当今量子计算机领域最难的经典基准。”哈特穆特·奈文介绍说。

具体而言,RCS被用来展示量子计算机和经典计算机之间快速增长的差距,并强调量子处理器如何以双指数速度剥离,并将随着量子位的扩大而优于经典计算机。它涉及产生和测量随机量子电路的输出(随机量子电路是以一种看似任意的方式应用于量子位的量子门序列)。

如开篇所述,Willow在RCS测试中的表现令人惊叹:它在不到五分钟的时间内完成了一项计算,而当今最快的超级计算机Frontier需要10^25年。“它证实了量子计算发生在许多平行宇宙中的观点,这与 David Deutsch 首次提出的‘我们生活在多元宇宙中’观点一致。”哈特穆特·奈文说。

图:计算成本受可用内存的影响很大。因此,谷歌的估算考虑了一系列场景,从内存无限的理想情况(▲)到更实用、在 GPU 上可并行执行的实现(⭕️)。

在简报会上被问及“在实际应用下,我们离看到量子计算机还有多远?”时,哈特穆特·奈文介绍说,量子计算机在药物发现、核聚变反应堆、肥料生产、量子机器学习、电动汽车电池等都有用武之地。

在药物发现方面。“约75%的小分子药物都会被P450酶代谢,这基本上是小分子药物必须避开的一个关卡,这个酶目前还没有被充分理解,而量子计算机有望能更好地对它建模,谷歌正在研究这一应用,试图用量子计算机理解酶复合物P450。

在机器学习方面。“现在AI无处不在,但重要的是要认识到,有许多基础和计算问题,比如解决困难的优化问题或分解大数(Integer Factorization),这些无法只通过学习来解决,因为你需要庞大的训练数据。这也是量子计算机能够帮忙的地方。"

谷歌量子AI主任兼首席运营官 Charina Chou 补充说道,“现在的AI主要指机器学习,机器学习需要大量训练样本。比如ChatGPT的惊人成功,是因为有大量可用的训练数据。在这方面,量子计算也能帮忙。谷歌实际上在这方面已经有一些展开工作,这将给我们带来能从磁共振成像(MRI)和核磁共振(NMR)中获得更多价值的算法。这些新的量子算法可以作为一个原子尺子,给出分子中原子核之间非常精确的距离。所以量子计算可以帮助收集原本无法获取的训练数据集,这是其与AI的另一个重要联系。"

此外,Charina Chou还指出,“模拟大自然的最大机会可能就在量子力学系统中”,谷歌正在与许多大公司、学术机构和初创公司在物理、化学、材料科学领域展开合作,探索量子计算在各领域的应用场景。

系统工程是关键

在哈特穆特·奈文看来,系统工程是设计和制造量子芯片的关键:芯片的所有组件,例如单量子比特门和双量子比特门、量子比特复位和读出,都必须同时经过精心设计和集成。如果任何组件滞后或两个组件不能很好地协同工作,就会拖累系统性能。

“因此,最大化系统性能贯穿于我们流程的各个方面,从芯片架构和制造到门开发和校准。Willow取得的成果是整体评估量子计算系统,而不是一次只评估一个因素。”

目前,Willow在上述两个系统基准测试中(量子纠错和随机电路采样)均拥有一流的性能,除此之外,Willow的T1时间(测量量子比特可以保留激发的时间长短——关键的量子计算资源)接近100 µs(微秒),比Sycamore芯片的20微秒提了5倍。

如果你想评估量子硬件并跨平台比较,以下是关键规格表:

图:Willow 在多项指标上的表现

当被问到“从2019年53量子比特的Sycamore,到现在105量子比特Willow的新成果,谷歌在量子计算上的技术路线似乎更注重质量而非数量,这是否意味着业界普遍追求'更多量子比特'的路线需要调整?”这个问题时,哈特穆特·奈文告诉科技行者:

量子计算机需要同时具备"数量"和"质量"两个条件。简单地增加量子比特数量是不够的,因为如果错误率太高,这些量子比特就无法被有效利用。这就像是一台电脑,如果经常死机,即使配置再高也无法正常工作。

如果一个量子计算机的门操作错误率是千分之一,那么执行一千次操作后,系统就很可能出错。而在实际应用中,每个量子比特至少需要执行十次门操作。所以对于一个有100个量子比特的系统来说,需要将错误率控制在十万分之一才算合格。

相比之下,某些其他设计虽然号称有上千个量子比特,但错误率高达1/50或1/200。这种情况下,在整个系统崩溃之前,根本无法同时使用所有量子比特。“这就是为什么谷歌选择先把重心放在提高量子比特的“质量”上,因为只有先解决了质量问题,增加数量才有意义。”

谷歌的研究团队表示,他们正在开发新的技术来扩大系统规模。当前的工作重点是降低错误率,让它达到量子纠错的要求。随着技术的成熟,量子比特的数量也会逐步增加。

谷歌的量子计算之旅

到目前为止,谷歌针对量子计算进行了两种不同类型的实验。

一方面,运行RCS 基准测试,该基准测试衡量了与传统计算机的性能,但没有已知的实际应用。

另一方面,对量子系统进行了科学模拟,这也带来了一些新的科学发现,但这些发现仍在传统计算机的范围内。

图:随机电路采样(RCS)虽然对于传统计算机来说极具挑战性,但尚未展示实际的商业应用。

视频简报会上,谷歌量子计算AI团队公布了谷歌量子计算路线图,谷歌称,该路线图的重点是通过开发能够进行复杂、纠错计算的大型计算机,来释放量子计算的全部潜力,这些里程碑将引领我们朝着有意义应用的高质量量子计算硬件和软件发展。图上可见,该路线图包含六个里程碑,谷歌目前的已经完成了两个里程碑节点。

谷歌量子计算路线图

谈及投身于这趟量子计算之旅,哈特穆特·奈文在谷歌官网上写道:

“我的同事有时会问我,为什么离开蓬勃发展的人工智能领域,转而专注于量子计算。我的回答是,这两项技术都将被证明是我们这个时代最具变革性的技术,但先进的人工智能将从量子计算中受益匪浅。这就是我将我们的实验室命名为量子人工智能的原因。”

“量子算法具有基本的缩放定律(scaling laws),就像我们在RCS中看到的那样,许多对人工智能至关重要的基础计算任务也具有类似的缩放优势。因此,量子计算对于收集传统机器无法访问的训练数据、训练和优化某些学习架构、以及对量子效应很重要的系统进行建模将是必不可少的。这包括帮助我们发现新药、为电动汽车设计更高效的电池,以及加速核聚变和新能源替代品的进展。许多未来改变游戏规则的应用程序中在传统计算机上是行不通的;它们正等待量子计算来解锁。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部