在本周发表的一篇论文中,谷歌的量子AI研究人员展示了一种通过增加运行中的“量子比特”数量来减少量子计算机错误的方法。谷歌首席执行官桑达尔·皮采表示,这是朝着“使量子应用对人类进步有意义”迈出的“一大步”。
传统计算机使用二进制位——可以是0也可以是1——来进行计算。无论你是在玩电子游戏,编辑文本文档,还是创造一些AI生成的艺术,所有潜在的计算任务都是由二进制字符串表示的。但是有一些复杂的计算,比如模拟原子之间的相互作用,是不可能在传统计算机上大规模进行的。研究人员不得不依赖近似值,这降低了模拟的准确性,并使整个过程变得有些毫无意义。
这就是量子计算机的用武之地。他们使用量子位来代替常规的比特,量子位可以是0、1,也可以同时是0和1。它们甚至可以以其他量子特定的方式被纠缠、旋转和操纵。可行的量子计算机不仅可以让研究人员更好地理解分子之间的相互作用,还可以让我们模拟复杂的自然现象,更容易地检测信用卡欺诈,并发现新材料。(当然,量子计算机也有一些潜在的缺点——量子计算机可以打破传统的算法,这些算法保护着当今的一切,从密码和银行交易到公司和政府机密。)
不过就目前而言,所有这些在很大程度上都是理论。量子计算机目前太小,容易出错,无法改变世界。谷歌的最新研究在一定程度上解决了这个问题的后半部分。(IBM正试图解决前半部分的问题。)
问题是量子计算机对一切都非常敏感。它们必须在密封的低温冷却箱中工作。即使是一个杂散的光子也会导致量子比特“退散”或失去量子态,这就会产生各种各样的严重错误,干扰问题的计算。到目前为止,增加更多的量子比特也意味着增加随机出错的几率。
据谷歌称,其拥有53个量子比特的第三代梧桐树量子处理器的错误率通常在1万分之一到1万分之一之间。这个数量级对于解决现实世界的问题来说太高了;谷歌的研究人员认为,我们将需要错误率在10亿分之一到100万分之一之间的量子比特。
不幸的是,任何人都不太可能从目前的物理量子比特设计中获得这样的性能提升。但通过将多个物理量子比特组合成一个逻辑量子比特,谷歌已经能够展示出一条潜在的前进道路。
研究团队给出了一个简单的例子,说明为什么这种设置可以减少错误:如果“Bob想要通过一个嘈杂的通信通道向Alice发送一个读为‘1’的位。Bob意识到,如果比特翻转到“0”,消息就丢失了,于是他转而发送三个比特:“111”。如果一个人错误地翻转,爱丽丝可以对所有接收到的比特进行多数投票(一个简单的纠错代码),并且仍然理解预期的信息。”
由于量子位有额外的状态,它们可以翻转到,事情就有点复杂了。当我们处理量子时,直接测量它们的值会导致它们失去“叠加”——一种量子怪癖,允许它们同时具有“0”和“1”的值,这也真的没有帮助。为了克服这些问题,你需要量子纠错(QEC),其中信息在多个物理量子位上进行编码,以创建单个逻辑量子位。
研究人员在棋盘上放置了两种类型的量子比特(一种用于处理数据,一种用于测量误差)。根据谷歌的说法,“顶点上的‘数据’量子位构成了逻辑量子位,而每个正方形中心的‘测量’量子位用于所谓的‘稳定器测量’。”测量量子位能够在不“揭示单个数据量子位的值”的情况下判断何时发生了错误,从而破坏了叠加态。
为了创建一个逻辑量子比特,谷歌的研究人员使用了49个物理量子比特:25个数据量子比特和24个测量量子比特。至关重要的是,他们将这种设置与一个由17个物理量子比特(9个数据量子比特和8个测量量子比特)组成的逻辑量子比特进行了测试,发现较大的网格比较小的网格准确约4%。虽然只是一个很小的改进,但这是该领域第一次增加更多的量子位来减少而不是增加错误的数量。(理论上,577个量子比特的网格错误率接近目标的1 / 10,000,000)。
尽管谷歌最近裁员,但它似乎致力于更多的量子研究。皮查伊在他的博客文章中表示,谷歌将“继续努力,有朝一日量子计算机可以与经典计算机协同工作,扩展人类知识的边界,帮助我们找到世界上一些最复杂问题的解决方案。”