您的位置首页>IT>

Google通过经典机器学习加速量子计算

导读科技巨头Google最近关于量子至上的主张在计算机科学界引起了轩然大波,并使全球主流媒体谈论了量子计算的突破。昨天,Google用一篇博客文章

科技巨头Google最近关于量子至上的主张在计算机科学界引起了轩然大波,并使全球主流媒体谈论了量子计算的突破。昨天,Google用一篇博客文章满足了公众对该主题日益增长的兴趣,该博客文章介绍了一项关于使用经典机器学习改善量子计算的研究。

量子位是量子计算的最基本组成部分,也是实现近期量子计算机的最重大挑战之一。量子比特的各种特性使其难以控制。Google AI解释说,诸如控制电子学中的缺陷之类的问题会“影响计算的保真度,从而限制近期量子设备的应用。”

在他们的早期论文通用量子控制通过深入强化学习,谷歌研究人员认为,通过深强化学习(RL)量子调控可能在诸如量子模拟,量子化学,量子至上测试更广泛的应用。

Google认为使用深度神经网络进行量子位控制优化的强化学习技术具有巨大潜力。他们利用嘈杂的控制轨迹的非局部规律并促进任务之间的转移学习的能力激发了研究人员采用基于深度强化学习的控制方法。

研究人员面临的第一个挑战是为现实的量子控制过程开发物理模型,以便可以可靠地预测误差量。这很重要,因为在计算过程中丢失的量子信息量(即“泄漏”)不仅会导致会丢失有用的量子信息的错误,而且最终会降低量子计算机的性能。

在较早的论文中,研究人员介绍了一种量子控制成本函数,该函数涵盖泄漏误差,控制约束,总运行时间和门不忠,以确保可以准确评估泄漏的信息。这使强化学习技术能够在不影响系统可控制性的情况下优化此类软惩罚项。

研究人员开发了一种有效的优化工具,以利用新的量子控制成本函数。他们为任务选择了可信赖区域强化学习(一种基于策略的深度RL方法)。在量子系统中,控制领域通常是高维的,不可避免地会挤满大量的非全局解决方案,并且在策略RL可以在控制轨迹中使用非局部特征的情况下,它是有利的。该方法在所有基准问题上均表现出良好的性能,并且对样品噪声具有鲁棒性。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。