We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Quantum Computers Cross Critical Error Threshold

Quantum Computers Cross Critical Error Threshold

2025/5/8
logo of podcast Quanta Science Podcast

Quanta Science Podcast

AI Deep Dive Transcript
People
B
Barbara Terhal
D
David Hayes
J
John Martinez
J
John Preskill
K
Kevin Satzinger
M
Michael Newman
旁白
知名游戏《文明VII》的开场动画预告片旁白。
Topics
Michael Newman: 我专注于量子纠错研究,我相信通过增加物理量子比特的数量,可以构建更大规模的量子计算机,并且随着规模的扩大,其性能会呈指数级增长。这是我们目前已知构建大型量子计算机的唯一途径。我们最近在Nature上发表的论文表明,我们的量子计算机在质量方面已经超过了一个阈值,超过这个阈值后,随着规模的扩大,编码的量子比特会变得更好。 看到距离7的数据,我感到非常兴奋。我当然从事量子纠错工作,并且相信量子纠错。但是,第一次看到这些数据,绘制出这条线并看到它穿过这些点,这与相信某事然后看到它起作用之间是有区别的。那是第一次我意识到,哦,这真的会起作用。 David Hayes: 看到量子纠错技术的实际应用令人兴奋,因为整个故事都取决于这种扩展性。 John Preskill: 量子信息本质上更加脆弱,因此需要考虑所有可能出错的情况。为了使量子纠错有效,每个物理量子比特上的每次操作的错误率必须低于0.01%。 John Martinez: 表面码最初是一个理论概念,实验人员并不真正理解。要实现量子纠错,可能需要数千个物理量子比特,这令人望而生畏。但是,随着时间的推移和技术的进步,我们可以像过去那样,从少数晶体管发展到数十亿甚至数万亿晶体管一样,最终实现大规模量子计算。 Kevin Satzinger: 在量子纠错领域,对物理组件的每一次改进都会极大地提高逻辑性能。我们团队在实验中观察到,距离5码的错误率比距离3码的错误率低了40%,后来进一步提高到50%。这表明,我们已经将物理量子比特的错误率降低到了表面码阈值以下。 Barbara Terhal: Google团队能够如此迅速地突破阈值令人惊讶,因为他们之前的研究结果处于临界点,并不确定硬件还有多少改进空间。他们证明了这一点,这非常令人印象深刻。

Deep Dive

Shownotes Transcript

欢迎收听Quanta科学播客。每一期,我们都会为您带来关于科学和数学发展的故事。我是苏珊·瓦莱特。首先,研究人员已经证明,向量子计算机添加更多量子比特可以使其更具弹性。这是通往实际应用漫长道路上的一个重要步骤。接下来是这个。

《量子杂志》是一家编辑独立的在线出版物,由西蒙斯基金会支持,以增强公众对科学的理解。

你如何用不完美的零件构建一台完美的机器?这是量子计算机建造者面临的核心挑战。问题在于,它们的构成单元,称为量子比特,对外部世界的干扰极其敏感。今天的原型量子计算机容易出错,无法做任何有用的事情。

在20世纪90年代,研究人员制定了克服这些错误的理论基础,称为量子纠错。关键思想是诱导一群物理量子比特一起工作,形成单个高质量的逻辑量子比特。然后,计算机将使用许多这样的逻辑量子比特来执行计算。他们将通过将许多有缺陷的组件转化为更少的可靠组件来制造那台完美的机器。

这是谷歌量子人工智能公司从事量子计算机纠错研究的迈克尔·纽曼。随着规模的扩大,它们会变得指数级地更好。因此,这是我们所知道的,通往构建大型量子计算机的唯一途径。这种计算炼金术有其局限性。如果物理量子比特太容易出错,则纠错会适得其反。

在这种情况下,添加更多物理量子比特会使逻辑量子比特更差,而不是更好。但是,如果错误率低于特定阈值,则平衡就会倾斜。你添加的物理量子比特越多,每个逻辑量子比特就越有弹性。

现在,在最近发表在《自然》杂志上的一篇论文中,纽曼和他在谷歌量子人工智能公司的同事们终于跨越了这个门槛。我们的量子计算机最终在质量方面达到了一个阈值。

超过这个阈值,我们的编码量子比特会随着规模的扩大而变得更好。研究人员将一组物理量子比特转化为单个逻辑量子比特,然后证明,当他们向该组添加更多物理量子比特时,逻辑量子比特的错误率急剧下降。

戴维·海耶斯是量子计算公司Quantinuum的物理学家。看到这成为现实真的令人兴奋,因为整个故事都取决于这种扩展。纠错的最简单版本适用于普通的经典计算机,它将信息表示为一系列比特或零和一。任何翻转比特值的随机故障都会导致错误。

您可以通过将信息分散到多个比特上来防止错误。最基本的方法是将每个零重写为000,将每个一重写为111。任何时候,一组中的三个比特的值不都相同,您就会知道发生了错误,多数投票将修复有故障的比特。

但是该过程并不总是有效。如果任何三元组中的两个比特同时出现错误,则多数投票将返回错误的答案。为避免这种情况,您可以增加每组中的比特数。例如,此重复代码的5比特版本可以容忍每组两个错误。但是,虽然此较大的代码可以处理更多错误,但您也引入了更多可能出错的方法。

净效应只有在每个单独的比特错误率低于特定阈值时才有益。如果不是这样,那么添加更多比特只会使您的错误问题更严重。像往常一样,在量子世界中,情况更加棘手。量子比特比其经典的表亲更容易出现多种错误。操纵它们也更加困难。

量子计算中的每个步骤都是另一个错误来源,纠错过程本身也是如此。更重要的是,没有办法测量量子比特的状态而不会不可逆地干扰它。您必须以某种方式诊断错误,而无需直接观察它们。所有这些都意味着必须极其小心地处理量子信息。

加州理工学院的量子物理学家约翰·普雷斯基尔说,量子信息本质上更加微妙。因此,普雷斯基尔说,你必须担心所有可能出错的事情。起初,许多研究人员认为量子纠错是不可能的。

他们在20世纪90年代中期被证明是错误的,当时研究人员设计了简单的量子纠错码示例。但这只是将预后从绝望变为令人畏惧。当研究人员详细研究时,他们意识到他们必须将物理量子比特上每个操作的错误率降低到0.01%以下。只有万分之一可能出错。

这只会让他们达到阈值。他们实际上需要远远超过这个阈值,否则,随着添加更多物理量子比特,逻辑量子比特的错误率将极其缓慢地下降,并且纠错在实践中将永远无法工作。没有人知道如何制造一个足够好的量子比特。但事实证明,这些早期代码只触及了可能的表面。

1995年,俄罗斯物理学家阿列克谢·基塔耶夫听到关于量子计算领域重大理论突破的报道。前一年,美国应用数学家彼得·肖尔设计了一种用于将大数分解为其质因数的量子算法。基塔耶夫无法获得肖尔论文的副本,因此他从头开始计算出了他自己的算法版本。事实证明,它比肖尔的算法更通用。

普雷斯基尔对这一结果感到兴奋,并邀请基塔耶夫访问他在加州理工学院的小组。1997年春季的短暂访问异常富有成效。

基塔耶夫告诉普雷斯基尔他一直在追求的两个新想法:一种根本不需要主动纠错的拓扑量子计算方法,以及一种基于类似数学的量子纠错码。起初,基塔耶夫认为该代码对量子计算没有用。普雷斯基尔更为乐观,并说服他,他最初想法的一个轻微变化值得追求。

这种变化被称为表面码。它基于两个重叠的物理量子比特网格。第一个网格中的那些是数据量子比特。这些共同编码单个逻辑量子比特。第二个网格中的那些是测量量子比特。这些允许研究人员间接地窥探错误,而不会干扰计算。

这是很多量子比特,但表面码还有其他优点。它的纠错方案比竞争量子码的方案简单得多。它也只涉及相邻量子比特之间的相互作用。这就是普雷斯基尔发现如此吸引人的特性。在接下来的几年里,基塔耶夫、普雷斯基尔和少数同事详细阐述了表面码的细节。

2006年,两位研究人员表明,该代码的优化版本具有约1%的错误阈值。这比早期量子码的阈值高100倍。这些错误率对于2000年代中期基本的量子比特来说仍然遥不可及,但它们似乎不再那么难以实现。

尽管取得了这些进展,但对表面码的兴趣仍然局限于一小部分理论家群体,这些人并没有在实验室里使用量子比特。他们的论文使用了实验人员不熟悉的抽象数学框架。

约翰·马丁内斯是加州大学圣巴巴拉分校的物理学家,也是这些实验人员之一。这在很大程度上是一个理论概念,人们真的不明白。你知道,这就像我读一篇弦理论论文一样。2008年,一位名叫奥斯汀·福勒的理论家着手通过向美国各地的实验人员宣传表面码的优势来改变这一现状。

四年后,他在马丁内斯领导的圣巴巴拉小组中找到了一个乐于接受的听众。福勒、马丁内斯和另外两位研究人员撰写了一篇50页的论文,概述了表面码的实际实现。他们估计,通过足够的巧妙工程,他们最终能够将物理量子比特的错误率降低到0.1%,远低于表面码阈值。

然后,原则上,他们可以扩大网格的规模,将逻辑量子比特的错误率降低到任意低的水平。这是一台全尺寸量子计算机的蓝图。当然,建造一台这样的计算机并非易事。

粗略估计表明,肖尔因式分解算法的实际应用需要数万亿次运算。任何一个未经纠正的错误都会破坏整个过程。由于这种限制,他们需要将每个逻辑量子比特的错误率降低到远低于万亿分之一。为此,他们需要一个巨大的物理量子比特网格。

圣巴巴拉小组的早期估计表明,每个逻辑量子比特可能需要数千个物理量子比特。这是马丁内斯说的。这吓坏了所有人。这也让我有点害怕。但马丁内斯和他的同事们还是继续努力,在2014年发表了一个使用五个量子比特的原理验证实验。这一结果引起了谷歌一位高管的注意,这位高管很快招募马丁内斯领导一个内部量子计算研究小组。

在尝试一次处理数千个量子比特之前,他们必须在较小的规模上使表面码工作。这将需要十年的艰苦实验工作才能实现。当您将量子计算理论付诸实践时,第一步也许是最重要的:您使用什么硬件?

许多不同的物理系统可以用作量子比特,每个系统都有不同的优缺点。马丁内斯和他的同事专门研究所谓的超导量子比特,它们是由硅芯片上的超导金属制成的微型电路。单个芯片可以容纳许多排列成网格的量子比特,这正是表面码所要求的布局。

谷歌量子人工智能团队花了数年时间改进其量子比特设计和制造流程,从少数量子比特扩展到数十个量子比特,并磨练了他们同时操纵许多量子比特的能力。2021年,他们终于准备好首次尝试使用表面码进行纠错。

他们知道他们可以用低于表面码阈值的错误率构建单个物理量子比特,但他们必须看看这些量子比特能否协同工作以制造一个优于其各部分之和的逻辑量子比特。具体来说,他们需要证明,当他们通过使用更大的物理量子比特网格块来编码逻辑量子比特来扩展代码时,错误率会降低。

他们从最小的表面码开始,称为距离3码。它使用3x3网格的物理量子比特来编码一个逻辑量子比特,加上另外8个量子比特用于测量,总共17个。然后他们向上迈进了一步,到距离5表面码,总共有49个量子比特。

在2023年的一篇论文中,该团队报告说,距离5码的错误率略低于距离3码的错误率。这是一个令人鼓舞的结果,但并不具有决定性。他们还不能宣布胜利。而且,从实际层面来看,如果每一步向上只减少一点点错误率,那么扩展将不可行。为了取得进展,他们需要更好的量子比特。

该团队将2023年的其余时间用于另一轮硬件改进。在2024年初,他们有一个全新的72量子比特芯片,代号为Willow,可以进行测试。他们花了几周时间设置测量和操纵量子比特所需的所有设备。然后他们开始收集数据。十几位研究人员挤进一个会议室,观看第一个结果的出现。

凯文·萨辛格是谷歌量子人工智能公司的物理学家,他与纽曼共同领导了这项工作。没有人确定会发生什么。我们知道它会更好,因为相干性更好,但是让这些实验发挥作用有很多细节。

我们甚至还有一个赌池。这实际上并不是赌博,但人们可以在电子表格中输入他们的猜测以获得吹嘘的权利。然后,一个图表出现在屏幕上。距离5码的错误率并非略低于距离3码的错误率。它下降了40%。

在接下来的几个月里,该团队将这一数字提高到了50%。代码距离向上迈进一步将逻辑量子比特的错误率降低了一半。这是萨辛格说的。那是一个极其令人兴奋的时刻,在这个领域中真正伟大的事情是

是您此时对物理组件所做的每一次改进都开始真正发挥作用,并使逻辑性能变得更好。所以这非常令人兴奋,实验室里有一种电气化的氛围。该团队还希望了解当他们继续扩展时会发生什么。但是距离7码将需要97个量子比特,超过他们芯片上的总数。

在2024年8月,一批新的105量子比特Willow芯片问世,但那时团队已经接近最后期限。下一轮设计改进的测试周期即将开始。

萨辛格开始接受他们没有时间进行这些最终实验的想法。我们进行实验的时间有限,因为设备需要出于其他原因进行迭代。这些系统也有其他用途,而不仅仅是运行服务代码。

我甚至一度放弃了希望,所以我有点在精神上放弃了距离7。然后,在最后期限的前一天晚上,两位新团队成员加布里埃尔·罗伯茨和亚历克·艾希布施熬夜到凌晨3点,让一切正常运行,以便收集数据。当小组第二天早上回来时,他们看到从距离5到距离7的代码再次将逻辑量子比特的错误率降低了一半。

这种指数级缩放,其中错误率随着代码距离每一步向上而下降相同的因子,正是理论预测的。这是一个明确的迹象,表明他们已将物理量子比特的错误率降低到远低于表面码阈值。这是纽曼说的。早上看到距离7的数据,真是太疯狂了。

我当然从事量子纠错工作,我相信量子纠错。但是第一次看到这些数据,绘制那条线并看到它穿过那些点,你知道,相信某件事和看到它起作用之间是有区别的。那是第一次我意识到,哦,这真的会起作用。这一结果也让其他量子计算研究人员感到兴奋,例如代尔夫特理工大学的理论物理学家芭芭拉·特哈尔。我认为这太棒了。

我认为我实际上并没有预料到他们会像这样突破这个门槛。因为他们之前的论文非常令人印象深刻,它有点像处于边界线上。你不知道他们在改进硬件方面还有多少空间。他们确实证明了这一点。我认为这非常令人印象深刻。与此同时,研究人员认识到他们还有很长的路要走。

谷歌量子人工智能团队只演示了使用单个逻辑量子比特进行纠错。添加多个逻辑量子比特之间的相互作用将带来新的实验挑战。然后是扩展的问题。

为了将错误率降低到足以进行有用的量子计算的程度,研究人员将需要进一步改进他们的物理量子比特。他们还需要用比距离7码大得多的东西制造逻辑量子比特。最后,他们需要组合数千个这样的逻辑量子比特,超过一百万个物理量子比特。

与此同时,其他研究人员使用不同的量子比特技术取得了令人印象深刻的进展,尽管他们尚未证明他们可以通过扩展来降低错误率。这些替代技术可能更容易实现需要较少物理量子比特的新纠错码。

量子计算仍处于起步阶段。现在说哪种方法会胜出还为时过早。马丁内斯于2020年离开了谷歌量子人工智能公司,尽管面临许多挑战,但他仍然保持乐观。我记得在60年代初与我父亲一起露营

和他那台六个晶体管的收音机。事实上,有六个晶体管意味着它真的很好。所以我经历了从少数晶体管到现在的数十亿甚至数万亿个晶体管的过程。只要有足够的时间和足够的聪明才智,我们就能做到这一点。

阿琳·桑塔纳帮助制作了这一集。我是苏珊·瓦莱特。有关此故事的更多信息,请阅读本·布鲁贝克的完整文章《量子计算机跨越关键错误阈值》,该文章发表在我们的网站quantummagazine.org上。在量子书籍《质数阴谋》中探索数学奥秘,该书由麻省理工学院出版社出版,现已在amazon.com、barnesandnoble.com或您当地的书店有售。