“Google通过经典机器学习加速量子计算”
科技巨头谷歌最近就量子至上的主张在计算机科学界掀起轩然大波,向世界主流媒体讲述了量子计算的突破。 昨天,谷歌通过一个博客文案,介绍了关于利用经典机器学习改善量子计算的研究,满足了公众对这个主题增长的兴趣。
量子比特是量子计算最基本的组成部分也是最近实现量子计算机的最大挑战之一。 量子比特的各种特征使控制变得困难。 谷歌AI解释说,控制电子工程缺陷等问题会影响计算的保真度,限制近期量子器件的应用。
在他们早期的论文中,谷歌的研究人员认为,通过量子控制深入加强的学习,通过深入加强的学习( rl )实现的量子控制有可能在量子模拟、量子化学、量子至上测试等方面得到广泛应用。
谷歌认为,利用深度神经互联网进行量子比特控制优化的强化学习技术有很大的潜力。 他们利用嘈杂控制轨迹的非局部规律,利用促进任务间迁移学习的能力,促使研究者使用基于深度强化学习的控制方法。
研究人员面临的第一个挑战是开发现实量子控制过程的物理模型,以确保误差量可靠。 这是非常重要的。 因为计算中丢失的量子新闻的量,即泄露,不仅会导致丢失有用的量子新闻的错误,最终还会降低量子计算机的性能。
以前的论文介绍了一种量子控制价格函数,它涵盖了泄漏误差、控制约束、总工作时间、门不忠实,能够准确判断泄漏的新闻。 因此,强化学习技术可以在不影响系统可控性的情况下优化这种软处罚项。
研究人员为了利用新的量子控制价格函数,开发了比较有效的优化工具。 他们为了任务选择了可靠的区域强化学习(基于战略的深rl方法)。 在量子系统中,控制行业一般是高维的,必然会被大量的非全局处理方案填满,同时策略rl能够在控制轨迹中采用非局部特征,这一点是有利的。 该方法在所有基准问题上都表现出了良好的性能,同时对样本噪声具有鲁棒性。
免责声明:飞天目录网免费收录各个行业的优秀中文网站,提供网站分类目录检索与关键字搜索等服务,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站的作者将予以删除。