人工智能系统AlphaQubit可准确识别量子计算机内部错误

🤖 由 文心大模型 生成的文章摘要

量子计算机有可能彻底改变药物发现、材料设计和基础物理学——前提是,能让它可靠地工作。

某些问题需要传统计算机花费数十亿年才能解决,而量子计算机只需几个小时即可解决。然而,这些新处理器比传统处理器更容易受到噪声的影响。如果我们想让量子计算机更可靠,尤其是在大规模情况下,则需要准确识别和纠正这些错误。

在发表在《自然》杂志上的一篇论文中,Google DeepMind和量子AI团队介绍了AlphaQubit,这是一种基于人工智能的解码器,能以最先进的精度识别量子计算错误。这项合作工作汇集了Google DeepMind机器学习知识和Google Quantum AI纠错专业知识,以加速构建可靠量子计算机的进程。

准确识别错误是使量子计算机大规模执行长时间计算的关键一步,以为科学突破和许多新发现领域打开大门。

量子计算机基于最小尺度上物质的独特性质,例如叠加和纠缠,以比传统计算机少得多的步骤解决某些类型的复杂问题。该技术依赖于量子比特,量子比特可以利用量子干涉筛选大量可能性以找到答案。

量子比特的自然量子态是脆弱的,可能被各种因素破坏:硬件中的微观缺陷、热量、振动、电磁干扰甚至宇宙射线(无处不在)。

量子纠错通过使用冗余提供了一种解决方法:将多个量子比特分组为单个逻辑量子比特,并定期对其进行一致性检查。解码器通过使用这些一致性检查来识别逻辑量子比特中的错误,从而保留量子信息,以便对其进行纠正。

AlphaQubit是一个基于神经网络的解码器,它借鉴了Transformers——谷歌开发的深度学习架构,是当今许多大型语言模型的基础。使用一致性检查作为输入,它的任务是正确预测逻辑量子位(在实验结束时测量时)是否与准备时的状态发生了变化。

Google DeepMind和量子AI团队首先训练模型解码Sycamore量子处理器(量子计算机的中央计算单元)内一组49个量子比特的数据。为了教会AlphaQubit一般解码问题,团队使用量子模拟器在各种设置和错误级别中生成数亿个示例。然后,通过为AlphaQubit提供来自特定Sycamore处理器的数千个实验样本,针对特定解码任务对其进行微调。

在新Sycamore数据上进行测试时,与之前领先的解码器相比,AlphaQubit树立了新的准确度标准。在最大规模Sycamore实验中,AlphaQubit的错误率比张量网络方法低6%,后者准确度很高,但速度慢得不切实际。AlphaQubit的错误率也比Correlated matching低30%,后者是一种准确度高且速度足够快的解码器。

「93913原创内容,转载请注明出处」