谷歌的研究人员表示,已经找到一种方法,将量子计算机中正在处理的信息分散到多个量子比特上。这意味着,即便单个量子比特脱离了量子态,但作为一个整体的系统可以保存足够多的信息足够长时间,来完成一项计算。
根据发表在《自然》杂志上的文章,随着谷歌扩大技术的应用规模,使其在更大的量子系统上运行,错误率仅降低了 4%。但研究人员指出,这是人类首次实现,扩大量子计算机的规模没有导致错误率上升。奈文表示,这表明谷歌已经突破了“平衡点”。在此之后,进一步的发展将实现稳定的性能提升,最终带来第一台可以实际使用的量子计算机。
谷歌研究员朱利安・凯利( Julian Kelly )说,此次的突破来自于谷歌对量子计算机所有组件的优化,涉及量子比特的质量控制、控制软件,以及用于将计算机冷却至接近绝对零度的低温设备。这些优化将错误的数量减少到了足够低,使得扩大系统规模不会导致错误率呈现指数级上升。
谷歌将这一突破描述为建造实用量子计算机所需完成的 6 个步骤中的第二步。下一步包括完善量子计算机的工程设计,以便只需要 1000 个量子比特就可以实现所谓的“逻辑量子比特”。逻辑量子比特建立在物理量子比特之上,可以实现无差错的运行。奈文表示,谷歌相信,只要能找到如何构建 1000 个逻辑量子比特并将其连接至单个系统的方法,就可以获得一台可实用的量子计算机。