科技行者如何解决量子计算机的「退相干」问题?

如何解决量子计算机的「退相干」问题?

如何解决量子计算机的「退相干」问题?

如何解决量子计算机的「退相干」问题?

2019年6月19日 科技行者
  • 分享文章到微信

    扫一扫
    分享文章到微信

  • 关注官方公众号-科技行者

    扫一扫
    关注官方公众号
    科技行者

由于量子计算机的设计、构建与编程难度极高,这使得各类量子计算机实验项目都因噪声、故障与量子相干性等问题而陷入瘫痪。

来源:科技行者 2019年6月19日

关键字:量子计算机

如今,量子计算已经成为一种革命性技术,它能够利用量子力学的神奇特性以远超普通计算机的方式,快速解决某些特定问题。而这些特定问题,涵盖数学、零售、物理学乃至金融等诸多领域。如果我们能够真正实现量子技术的应用,那么其将极大提升全球整体经济水平。

量子计算的发展前景在上世纪80年代首次得到人们的认可,但直至今日,量子计算却仍然未能真正实现。由于量子计算机的设计、构建与编程难度极高,这使得各类量子计算机实验项目都因噪声、故障与量子相干性等问题而陷入瘫痪。

这种由振动、温度波动、电磁波以及与外部环境的其它相互作用引起的相干性损失(术语为「退相干」,通俗称谓是“波函数坍缩效应”),最终破坏了在计算机上利用奇异量子特性的可能性,使得当代量子计算机还不太可能在可行的执行时间之内向程序反馈正确答案。

虽然已经有多种竞争性技术与架构正在试图攻克这些问题,但现有硬件平台并不能保持一致性并提供大规模计算所必需的强大纠错能力。要解决这些问题,还需要数年的时间。

与此同时,另一个问题在于,我们该如何抢在计算机本身变得不可靠之前通过计算获得有用的结果?

这个问题的答案引起了各个方面的激烈讨论,工业界、学术界以及各国家实验室的研究人员正在积极寻求各种能够减少错误的方法。其中一种方法是利用包含各种噪声水平的计算结果来猜测无差错计算的实际内容。另一种完全不同的方法被称为量子经典混合算法,其只在量子计算机程序中运行最关键的性能需求部分,并在大部分程序运行在鲁棒性更强的经典计算机上。事实证明,这类策略对于处理当今量子计算机的噪声问题确实非常有用。

虽然经典计算机也会受到各类错误源的影响,但这些错误可以通过添加适量的额外存储与逻辑机制进行纠正。量子误差校正方案确实存在,但需要消耗大量量子比特(qubits),这意味着只有相对较少的量子比特可保留用于实际计算。换言之,这类方案所能运行的计算任务规模,将受到无差错硬件规模的影响——而这部分硬件在容量上将极为有限。

为了更明确地理解量子比特这一资源的珍贵之处,我们先聊聊当前最先进的、基于门的量子计算机。其采用的是类似于传统计算机、智能手机以及平板电脑中的数字电路逻辑门,截至目前此类量子计算机只有50量子比特。而传统计算机的比特数早已发展至数千亿之多。

麻烦的是,量子力学中的不少特性与我们的直觉存在激烈冲突。因此,我们很难找到能够执行有意义任务的最佳算法。为了协助克服这些问题,洛斯阿拉莫斯国家实验室的团队正在开发一种通过优化方法在量子计算机上执行实际任务的算法。

所谓算法,就是告知计算机应该执行哪些操作的一份操作列表,类似于烹饪配方。与传统算法相比,我们发现量子类算法最好尽可能短小且最好能够契合特定硬件设备中的具体缺陷与噪声解决方案。只有这样,算法才能够在退相干将正确结果的可能性降低到接近零之前,在约束时间帧内执行更多处理步骤。

在洛斯阿拉莫斯实验室指导研究以及提供资助的量子计算跨学科工作当中,我们正在努力确保算法得以有效运行。目前,我们的主要思路是在退相干影响达到一定程度之前尽可能减少需要完成的操作门数量,同时控制其它有可能降低计算成功率的错误源。

具体地,我们正在利用机器学习技术将量子电路转换或者编译成特定于目标量子计算机的最佳等效电路。最近,我们开始在经典计算机上利用机器学习方法来搜索量子程序的缩短化版本。而在不久前实现的一项突破当中,我们设计出一种可行方法,能够利用当前可用的量子计算机对自身量子算法进行编译。这将避免在经典计算机上模拟量子力学特性所带来的巨量计算资源开销。

由于这种方法能够生成比现有技术更短的算法,因此这将显著减少噪声带来的影响。除此之外,这种机器学习方法还能够面向特定算法与硬件平台实现错误纠正。例如,其可能会发现某一量子比特的噪声低于另一量子比特,从而优先使用质量更高的量子比特。在这种情况下,机器学习将能够利用最少的计算资源与最少的逻辑门创建出一种通用算法,用以计算该计算机上分配到的任务。通过这种优化,算法将能够在更长的时间周期内稳定运行。

值得一提的是,这种方法能够在量子计算机上以有限设置方式保持运作,并以云服务的方式面向公众开放。此外,它还充分利用了量子计算机的优秀特性,有望未来在真正的大型量子计算机上实现问题的规模化处理。

量子算法的新成果,将在量子计算机的计算环境中为专家及非专家用户提供更多工具选项。如今,应用程序开发人员已经可以利用量子计算的潜力加快程序执行速度,进而超越传统计算原理的限制。这些进步可能会帮助我们逐步接近更强大、更可靠的大型量子计算机,用以解决种种复杂的现实问题,最终攻克那些经典计算机根本无力承载的终极挑战。