
b谷歌的量子计算科学家本月展示了该领域的突破,强化了量子计算是真实存在的感觉,并且能够在其他类型的计算机中找到自己的位置,成为一种有价值的资源。
但还有很多工作要做:b谷歌最新的量子芯片——名为Willow,在其圣巴巴拉研究机构制造——是一款存储芯片。它实际上不处理任何函数,它只是存储一个要读取的位。用它做任何事情都将涉及开发逻辑电路的长期工作,以利用构成芯片的“量子位”。
正如《自然》杂志(发表了b谷歌早期发布的研究论文)所解释的那样,根本性的突破是,量子比特的误差可以降低到一个被称为阈值的噪声水平以下,而且——当这种情况发生时——机器可以可靠地表示信息——也就是说,以可容忍的误差水平表示信息。
要理解这一点,请考虑一下当今量子硬件的基本命题。为了制造任何量子“比特”信息,你必须将多个物理量子比特或量子位组合在一起,这些量子比特可以由各种材料制成。谷歌的Willow是去年谷歌芯片Sycamore的后续产品,两者都使用了一种超导形式的电容器,冷却到远低于零,被称为“Transmon”,是耶鲁大学20年前开发的。
使用Transmons或其他形式的物理量子位,不仅仅是谷歌,许多机构的研究人员多年来在将多个量子位组合成单个“逻辑”量子位方面取得了进展。一个物理量子比特只能持续十亿分之一秒,因此它的寿命不足以让量子机器的“解码器”电路读取它的信息。
逻辑量子位实际上是所有物理量子位的总结,它可以持续足够长的时间——是物理量子位寿命的两倍——它的值是可读的,因此是有用的。
挑战在于如何抑制多个量子位屈服于环境噪声而产生的错误。太多的噪声和逻辑量子位变得无用。各种纠错技术已经开发了多年,但谷歌的突破是第一次将物理量子位中的单个错误降低到产生可行的逻辑量子位所需的水平以下——阈值水平。
谷歌的柳树芯片将物理量子位的数量提高到105个,其关键是在芯片的制造过程中进行各种物理改变,从而降低每个物理量子位的噪声。谷歌的主要作者Rajeev Acharya及其合作者写道,结果是“代码距离每增加2,每个周期的逻辑错误就会减少一半以上”。
这是令人兴奋的,因为可靠的逻辑量子位可以扩展;也就是说,可以添加越来越多的物理量子位,同时将噪声保持在阈值以下,从而获得可预测的可靠逻辑量子位。
意义何在:缩放是传统计算机芯片的根本性突破,它能够在一块硅片上组装数十亿个晶体管,从而制造出越来越强大的电路。如果你现在可以可靠地扩展物理量子位,你就可以看到以同样的方式创建逻辑量子位电路的途径,并提高功率和性能。
b谷歌在《自然》杂志和它的竞争对手《科学》杂志上宣布柳树的消息,引用了该领域的许多专家的话。正如《自然》杂志的文章所说,共识是,这是“一个真正了不起的突破”。
不过,值得记住的是,还有很多工作要做。首先,阈值误差的突破并不意味着减少误差的工作已经结束。正如阿查里亚和他的团队所指出的那样,在实践中,逻辑量子比特的错误率现在必须达到更高的精度水平。
他们写道:“目前的逻辑错误率与实际量子计算的要求之间还有数量级的差距。”例如,在周围环境中可能发生“高能撞击事件”,“大约每十秒钟发生一次”,这会破坏可靠的、无错误的逻辑量子比特操作。
换句话说,逻辑量子位可以缩放的事实,虽然是一个突破,但意味着研究人员现在还有很长的路要走,才能用更大的芯片(更多的Transmons)来实际执行缩放,并改进检测和减轻逻辑错误的方法。b谷歌表示,他们有一个如何实现这一目标的路线图。
除了缩放问题,目前的设备类型还有一个限制:它还不是一个计算机芯片。
“柳树”的逻辑量子位相当于一个电容器:它存储一个比特。它对这一点还没有任何作用。它只是储存信息的存储器。为了执行操作,它需要扩展到多个逻辑量子位的组合,以形成逻辑运算,如加法和乘法。(量子处理器的逻辑运算的实际形式可能要复杂得多,但你懂的。)
正如帕萨迪纳加州理工学院的理论物理学家约翰·普雷斯基尔(John Preskill)告诉《自然》杂志的大卫·卡斯特维奇(Davide Castelvecchi)的那样,“我们想做受保护的量子比特操作,而不仅仅是内存。”谷歌团队的长期目标——做真正的操作——是拥有一个百万量子比特的芯片,也就是说,一百万个物理量子比特,有足够的逻辑量子比特,可以串在一起,形成真正的电路,进行真正的计算。
从这里到真正的电路——逻辑量子位的集合——是一个非常漫长的旅程,无论是对实际的芯片还是最终将使量子计算机工作的软件来说。今天的c++和Python可能还不够。
这当然是一个突破,只是要注意前面的工作。
点击分享到








