模拟/建模/设计

NVIDIA 合作伙伴借助 AI 超级计算加速实现量子突破

NVIDIA 的加速量子超级计算机 愿景是集成量子硬件和 AI 超级计算,将当今的量子处理器转变为未来有用的量子计算设备。

超级计算 2024 (SC24) 上,NVIDIA 宣布了一系列与合作伙伴合作的项目,这些项目旨在推动量子生态系统应对当今技术和加速量子超级计算之间的挑战。本文重点介绍了这些涵盖量子硬件、算法和系统集成的项目。

AI 突破满足量子计算的需求 

生成式 AI 是解决量子计算所面临挑战的最具前景的工具之一。NVIDIA 与来自工业界和学术界的科学家合作,发布了新的评论研究论文 《Artificial Intelligence for Quantum Computing》,概述了 AI 将如何改变量子计算(图 1)。

该论文聚焦于使用 GPT 模型合成量子电路和使用 transformers 解码 QEC 代码等主题,调查了在两个最具变革性的计算领域交叉开展的关键工作。

A graphic overview of the main topics covered in the AI for quantum review paper, including QC Hardware Development and Design, Preprocessing, Device Control, Quantum Error Correction, and Postprocessing.
图 1、NVIDIA 与业界和学术界的科学家合作,概述了人工智能将如何改变量子计算

多 QPU、多 GPU、多用户 

波兹南超级计算和网络中心 (PSNC) ORCA Computing 宣布了与 NVIDIA 开展量子协作的 AI 成果。该团队利用 NVIDIA H100 Tensor Core GPU NVIDIA CUDA-Q 平台和两台 ORCA PT-1 光子量子计算机,展示了首款功能齐全的多 QPU、多 GPU、多用户基础设施。

CUDA-Q 平台用于开发和运行具有预训练 Transformer 的新型资源状态生成器 (RS-GPT) 算法,该算法利用人工智能改进光子量子处理器的设计。该合作还产生了用于识别人脸图像的混合量子 – 经典生成式对抗网络 (GAN) 工作流。另外,开发了用于生物图像分类的混合量子神经网络,针对医学诊断应用。

将量子与经典相结合 

SC24 大会上的许多公告展示了 CUDA-Q 如何继续与所有量子位模态的量子硬件提供商集成,并使加速量子超级计算更易于使用。

QuEra、Anyon 和 Fermioniq 现已在 CUDA-Q 中提供

量子位无关的 CUDA-Q 开发平台现已与三个新合作伙伴集成: Anyon (超导 QPU)、 Fermioniq (量子电路模拟器)和 QuEra (中性原子 QPU)。借助 CUDA-Q 量子-经典工作流程,量子开发者现在可以将这些资源无缝地融合到混合算法中。

Quantum Brilliance 与德国超级计算集成

Quantum Brilliance 宣布即将 将其基于钻石的 QPU 集成到 Fraunhofer Institute for Applied Solid State Physics IAF 现有的超级计算基础设施中。该系统与 CUDA-Q 兼容,CUDA-Q 可用于在这种新型混合量子经典超级计算系统上开发和测试应用程序。

推进量子硬件设计

CUDA-Q 平台现在使量子硬件开发者能够利用 AI 超级计算加速设计流程。

CUDA-Q 0.9 中的动力学模拟 

CUDA-Q 0.9 包括 新的动态模拟功能 ,能够对量子系统执行高精度和可扩展的动态模拟。这些模拟是 QPU 供应商了解其硬件物理特性并改进量子位设计的关键工具。CUDA-Q 中的动力学模拟可以利用内置求解器,现在可以直接在 QuEra 的模拟量子处理器上运行。

助力 Google 构建更好的量子位 

NVIDIA 还与 Google Quantum AI 合作 ,对其 transmon 量子位执行大规模、高精度的量子动力学模拟。这项工作使用 cuQuantum 和 CUDA-Q 中现已提供的新动态 API 执行。如需详细了解突破性的 40 量子位 Google 模拟数据和其他详细基准测试,请参阅《 借助新的 Dynamics 功能加速 Google 的 QPU 开发 》。

扩大对下一代算法设计的访问权限

CUDA-QX 是针对 GPU 加速优化的应用程序特定库的集合。这些库为 CUDA-Q 的强大功能提供了更高级别的界面,可简化研究人员开始探索量子计算领域新一代主题的能力。

CUDA-Q QEC(量子误差校正)库提供了一些内置的 QEC 代码,可用于构建自定义工作流程并测试容错算法的性能。

CUDA-Q 求解器库提供了黑盒量子求解器和预处理功能,使得几乎可以轻松构建像化学模拟这样的应用程序的模拟,这些应用程序只有利用 GPU 超级计算才能大规模运行。

如需详细了解每个库(包括示例应用),请参阅用于加速量子超级计算的 NVIDIA CUDA-QX 库简介。

协作开发突破性应用 

NVIDIA 正在与量子生态系统中的专家开发者和研究人员合作。 SC24 上宣布的多项合作亮点包括以下内容。

耶鲁大学的量子 Transformer 模型 

耶鲁大学和 NVIDIA 正在合作开发一种新型量子 Transformer 模型,以生成具有特定物理化学属性的新分子。该团队使用 CUDA-Q 及其 MQPU 后端开发了一种量子 Transformer 模型,该模型可在采用量子电路的 Transformer 中实现注意力机制,从而提供了一种直接在序列建模中捕获复杂分子相互作用的新方法。CUDA-Q 加速将 epoch 训练时间从超过一周(在 CPU 上)缩短到仅几个小时(在一个四 GPU 系统上)(图 2)。

通过在 Perlmutter 超级计算机上使用多个 QPU 和 NVIDIA A100 GPU,使得第一个使用完整的 QM9 小分子训练集和批量大小为 256 的量子模型进行训练的示例成为可能。这使得可以更好地与经典机器学习(ML)模型进行比较,以评估量子 Transformer 模型的可行性。

Graph showing CUDA-Q accelerated training for a single epoch of the quantum transformer model. Using CUDA-Q training went from taking a week to complete to finishing overnight (single GPU) or even within a single morning (four GPUs).
图 2. 从四个批次在不同 CUDA-Q 后端推断出的单个 epoch 的训练时间

使用 Moderna 对绑定亲和力进行分类 

包括深度神经网络(DNN)在内的经典机器学习(ML)模型可以有效地从蛋白质序列中识别出结合基序,这些基序对于了解健康和疾病至关重要。然而,随着这些模型的扩展,训练变得具有计算挑战性,限制了它们处理日益复杂的生物数据的能力。

量子神经网络(QNNs)提供了一种引人注目、准确且高效的替代方案,寻求使用高维计算空间来创建更具表现力的 ML 模型。但训练此类模型极其困难。

缓解这些困难的一种方法是使用量子极限学习机器(Quantum extreme learning machines,QELMs),该机器由未经训练的 QNN 与简单的经典输出层组成。图 3 展示了根据 Potential and Limitations of Quantum Extreme Learning Machines 调整的 QELM 模型架构示意图。

A QELM model architecture diagram showing (left to right) Qubit Dynamics, QNN, and Classical Output Layer.
图 3、QELM 模型架构示意图

NVIDIA 和 Moderna 正在使用 CUDA-Q 平台开发 QELM 工作流程,以预测生物分子结合亲和力。CUDA-Q 加速模拟能够利用所需的大量量子位来提高 QELM 测试集的准确性。未来工作将利用新的 CUDA-Q 动态功能测试 QELM 方法在真实噪声条件下的性能。

借助 Hewlett Packard Enterprise 加速并行电路编

扩展量子应用的一种方法是跨多个处理器并行化量子电路,然后通过称为 电路编织 的程序合并结果。NVIDIA 正在与 Hewlett Packard Enterprise(HPE)合作,高性能实施基于张量网络的技术,以提高自适应电路编织的准确性和效率(图 4)。 HPE 的早期结果 表明,它有望超越现有电路编织方法的采样效率一到两个数量级。

Workflow for the adaptive circuit knitting procedure developed by NVIDIA and HPE.
图 4、NVIDIA 和 HPE 正在实施新的自适应方法来动态更新电路切割。电路编织利用多个 QPU 来运行量子电路 

借助 Algorithmiq 缓解噪声的张量网络

量子误差缓解后处理噪声量子计算机的输出,以改善结果。 NVIDIA 正在与 Algorithmiq 合作 ,加速其张量网络纠错(TEM)技术,早期测试表明,与之前的 CPU 实现相比,速度提高了 300 倍。Algorithmiq 计划在未来几个月展示加速 TEM 应用,涵盖材料科学和网络安全等领域。

量子算法教学 

NVIDIA 正在与亚利桑那州立大学和卡内基梅隆大学合作开发 CUDA-Q 学术课程模块 。这些模块将依托先前发布的 Divide and Conquer MaxCut QAOA Quick Start to Quantum Computing 模块的成功经验,重点介绍如何利用 GPU 通过 CUDA-Q 加速混合应用。

开始使用 

NVIDIA 正致力于推动量子生态系统向前发展,携手开展涵盖人工智能应用的项目,以实现量子计算、量子硬件模拟、混合量子经典应用开发和系统集成。详细了解 NVIDIA 量子计算 下载 CUDA-Q ,开始为您自己的项目试验加速量子超级计算。

 

标签