了解蛋白质结构的研究比以往任何时候都更加重要。从加快药物研发到为未来可能的疫情做好准备,预测蛋白质折叠方式的能力直接关系到我们应对重大生物学挑战的水平。自AlphaFold2发布以来,用于解析蛋白质结构的AI推理需求迅速增长。然而,未经优化的蛋白质结构推理工具可能导致研究时间延误和计算资源利用率下降,给科研机构带来高达数百万美元的损失。
全新的 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 彻底改变了这一局面。尽管 AlphaFold2 已取得重大突破,但多序列比对(MSA)生成受限于 CPU 性能,且 GPU 推理效率低下,仍是制约推理速度的关键瓶颈。基于此前的合作成果,NVIDIA 数字生物学研究实验室 开发出新的加速技术,结合 OpenFold 实现了比以往更快的蛋白质结构预测,在保持高精度的同时,显著降低了计算成本。
本文将展示如何利用 RTX PRO Blackwell 服务器版 GPU 进行大规模蛋白质分析,为软件平台、云服务提供商以及研究机构提供卓越的蛋白质结构推理性能。
为什么速度和规模在蛋白质结构预测中很重要?
蛋白质折叠处于计算生物学中计算需求极高的任务交汇点。现代药物研发需要分析大量蛋白质结构,酶工程则依赖快速迭代以优化生物功能,而农业生物技术应用还需筛选庞大的蛋白质库,以培育具备气候适应性的作物。
计算挑战可能极为严峻:单个蛋白质结构预测往往涉及宏基因组规模的多序列比对(MSA)、迭代优化步骤以及集成计算,通常需要数小时的计算时间。当扩展到整个蛋白质组或药物靶点库时,这类工作负载在基于 CPU 的基础设施上将变得异常耗时。
例如,在多序列比对工具的直接对比中,MMseqs2+ GPU 在单块 L40S 上的比对速度比基于 128 核 CPU 的 JackHMMER 快 177 倍;当扩展到 8 块 NVIDIA L40S GPU 时,性能提升可达 720 倍。这一显著加速体现了 GPU 技术如何有效缓解蛋白质生物信息学中的计算瓶颈。
NVIDIA 如何实现最快的蛋白质结构 AI?
NVIDIA 数字生物学研究实验室基于 cuEquivariance 和 Boltz-2 NIM 微服务 等最新技术,验证了 OpenFold 在行业标准基准测试中,借助 RTX PRO 6000 Blackwell Server Edition 和 NVIDIA TensorRT 所实现的显著性能提升(图 1)。

借助 RTX PRO 6000 Blackwell 架构的新指令集,结合 TensorRT、MMseqs2-GPU 和 OpenFold,蛋白质结构预测的性能实现突破性提升,折叠速度较 AlphaFold2 提升达 138 倍,较 ColabFold 提升约 2.8 倍,同时保持相当的 TM 分数。
RTX PRO 6000 Blackwell 上的 MMseqs2-GPU 实现了显著的推理加速,其运行速度相较运行在双插槽 AMD 7742 CPU 上的 JackHMMER 和 HHBlits 提升了 190 倍。同时,针对 OpenFold 定制的 TensorRT 优化,使其推理速度较基准版本提高了 2.3 倍。这些性能表现基于对 20 个 CASP14 蛋白质样本的测试验证,充分展现了 RTX PRO 6000 Blackwell 在端到端蛋白质结构预测中的突破性潜力。
消除内存瓶颈
此外,96 GB 的高带宽显存(带宽达 1.6 TB/s)使 RTX PRO Blackwell 能够完整加载蛋白质序列及大型多重序列比对(MSA),从而让整个工作流程在 GPU 上持续驻留运行。其多实例 GPU(MIG)功能可将单个 RTX PRO Blackwell 分割为四个独立的 GPU 实例,每个实例的性能均超越 NVIDIA L4 Tensor Core GPU。这使得多个用户或任务能够共享同一台服务器,同时保持高效的速度与计算精度。
以下完整示例展示了如何利用 RTX Pro 6000 的强大性能,实现高效的蛋白质结构预测。第一步是在本地计算机上部署 OpenFold2 NIM。
# See https://build.nvidia.com/openfold/openfold2/deploy for
# instructions to configure your docker login, NGC API Key, and
# environment for running the OpenFold NIM on your local system.
# Run this in a shell, providing the username below and your NGC API Key
$ docker login nvcr.io
Username: $oauthtoken
Password: <PASTE_API_KEY_HERE>
export NGC_API_KEY=<your personal NGC key>
# Configure local NIM cache directory so the NIM model download can be reused
export LOCAL_NIM_CACHE=~/.cache/nim
mkdir -p "$LOCAL_NIM_CACHE"
sudo chmod 0777 -R "$LOCAL_NIM_CACHE"
# Then launch the NIM container, in this case using GPU device ID 0.
docker run -it \
--runtime=nvidia \
--gpus='"device=0"' \
-p 8000:8000 \
-e NGC_API_KEY \
-v "$LOCAL_NIM_CACHE":/opt/nim/.cache \
nvcr.io/nim/openfold/openfold2:latest
# It can take some time to download all model assets on the initial run.
# You can check the status using the built-in health check. This will
# return {"status": "ready"} when the NIM endpoint is ready for inference.
curl http://localhost:8000/v1/health/ready
在本地部署 NIM 后,您可以构建推理请求,并通过本地端点生成蛋白质结构预测。
#!/usr/bin/env python3
import requests
import os
import json
from pathlib import Path
# ----------------------------
# parameters
# ----------------------------
output_file = Path("output1.json")
selected_models = [1, 2]
# SARS-CoV-2 proteome example
# Spike protein (1273 residues) — critical for vaccine development
sequence = (
"MFVFLVLLPLVSSQCVNLTTRTQLPPAYTNSFTRGVYYPDKVFRSSVLHSTQDLFLPFFSNVTWFHAIHVSGTNGTKRFDNPVLPFNDGVYFAST
EKSNIIRGWIFGTTLDSKTQSLLIVNNATNVVIKVCEFQFCNDPFLGVYYHKNNKSWMESEFRVYSSANNCTFEYVSQPFLMDLEGKQGNFKNL
REFVFKNIDGYFKIYSKHTPINLVRDLPQGFSALEPLVDLPIGINITRFQTLLALHRSYLTPGDSSSGWTAGAAAYYVGYLQPRTFLLKYNENGTITDAVD
CALDPLSETKCTLKSFTVEKGIYQTSNFRVQPTESIVRFPNITNLCPFGEVFNATRFASVYAWNRKRISNCVADYSVLYNSASFSTFKCYGVSPTKLNDLC
FTNVYADSFVIRGDEVRQIAPGQTGKIADYNYKLPDDFTGCVIAWNSNNLDSKVGGNYNYLYRLFRKSNLKPFERDISTEIYQAGSTPCNGVEGFNCY
FPLQSYGFQPTNGVGYQPYRVVVLSFELLHAPATVCGPKKSTNLVKNKCVNFNFNGLTGTGVLTESNKKFLPFQQFGRDIADTTDAVRDPQTLEILDITP
CSFGGVSVITPGTNTSNQVAVLYQDVNCTEVPVAIHADQLTPTWRVYSTGSNVFQTRAGCLIGAEHVNNSYECDIPIGAGICASYQTQTNSPRRARS
VASQSIIAYTMSLGAENSVAYSNNSIAIPTNFTISVTTEILPVSMTKTSVDCTMYICGDSTECSNLLLQYGSFCTQLNRALTGIAVEQDKNTQEVFAQV
KQIYKTPPIKDFGGFNFSQILPDPSKPSKRSFIEDLLFNKVTLADAGFIKQYGDCLGDIAARDLICAQKFNGLTVLPPLLTDEMIAQYTSALLAGTITSGWT
FGAGAALQIPFAMQMAYRFNGIGVTQNVLYENQKLIANQFNSAIGKIQDSLSSTASALGKLQDVVNQNAQALNTLVKQLSSNFGAISSVLNDILSRLD
KVEAEVQIDRLITGRLQSLQTYVTQQLIRAAEIRASANLAATKMSECVLGQSKRVDFCGKGYHLMSFPQSAPHGVVFLHVTYVPAQEKNFTTAPAICHD
GKAHFPREGVFVSNGTHWFVTQRNFYEPQIITTDNTFVSGNCDVVIGIVNNTVYDPLQPELDSFKEELDKYFKNHTSPDVDLGDISGINASVVNIQK
EIDRLNEVAKNLNESLIDLQELGKYEQYIKWPWYIWLGFIAGLIAIVMVTIMLCCMTSCCSCLKGCCSCGSCCKFDEDDSEPVLKGVKLHYT"
)
data = {
"sequence": sequence,
"selected_models": [1, 2],
"relax_prediction": False,
}
print(data)
# ---------------------------------------------------------
# Submit
# ---------------------------------------------------------
url = "http://localhost:8000/biology/openfold/openfold2/predict-structure-from-msa-and-template"
print("Making request...")
response = requests.post(url=url, json=data)
# ---------------------------------------------------------
# View response
# ---------------------------------------------------------
if response.status_code == 200:
output_file.write_text(response.text)
print(f"Response output to file: {output_file}")
else:
print(f"Unexpected HTTP status: {response.status_code}")
print(f"Response: {response.text}")
开始加速蛋白质 AI 工作流
尽管 AlphaFold2 过去依赖异构高性能计算节点,但在搭载 RTX PRO Blackwell 的平台上,NVIDIA 通过 cuEquivariance、TensorRT 以及 MMseqs2-GPU 中的模块化组件,显著加速了蛋白质结构预测过程。如今,仅需单台服务器即可实现业界领先的折叠速度,使各类实验室和软件平台都能高效开展蛋白质组规模的结构预测,并达到前所未有的预测效率。
无论您是在开发用于药物研发的软件平台、构建农业生物技术解决方案,还是开展大流行病预防研究,RTX PRO Blackwell 出色的性能都将彻底革新您的计算生物学工作流程。目前,全球系统制造商推出的 NVIDIA RTX PRO 服务器,以及领先云服务提供商的云实例,均已支持 RTX PRO Blackwell 服务器版的强大功能。
准备就绪了吗?携手 NVIDIA RTX PRO Blackwell 服务器版本的合作伙伴,以更快的速度和更大的规模体验蛋白质折叠的突破。
致谢
我们感谢NVIDIA、牛津大学和首尔国立大学的研究人员为本研究作出的贡献,包括Christian Dellago、Alejandro Chacon、Kieran Didi、Prashant Sohani、Fabian Berressem、Alexander Nesterovskiy、Robert Ohannessian、Mohamed Elbalkini、Jonathan Cogan、Ania Kukushkina、Anthony Costa、Arash Vahdat、Bertil Schmidt、Milot Mirdita和Martin Stei。