数据中心/云端

借助 NVIDIA ARC-Compact 在基站部署 AI-RAN

无线网络是现代连接的支柱,通过全球数百万个蜂窝基站为数十亿 5G 用户提供服务。AI-RAN 的机遇和优势正在推动电信网络和生态系统向 AI 原生无线网络 转型。

该公司的使命是创建一个智能网络结构,连接智能手机、摄像头、机器人和 AI 智能体等数千亿 AI 赋能的端点。这需要将 AI 嵌入到无线电信号处理中,以实现 X 因子性能和效率提升,并加速基站以提供 AI 流量,使 AI 推理尽可能接近用户。

AI-RAN 通过将当前基于 ASIC 的单用途 5G/RAN 纯系统发展为多用途商用现成 (COTS) 系统,能够在同一平台上托管 AI 和 RAN 工作负载、适用于 RAN 算法的 AI 以及 AI-on-RAN 应用,使其成为可能。这一转型有望为电信运营商带来诸多好处,包括支持新的 AI 服务、创造新的收入、提高网络利用率、频谱效率、能效和性能。AI-RAN 通过 100% 软件定义的方法,利用虚拟化 RAN (vRAN) 提供面向未来的 6G 路径。

“为了让 AI-RAN 在现场成为现实,它必须根据给定位置对 AI 和 RAN 容量的需求,支持集中式和分布式场景。例如,集中式 RAN (C-RAN) 可以聚合来自数十个蜂窝基站的 AI 和 5G vRAN 工作负载,这些基站需要更高容量的系统,而分布式 RAN (D-RAN) 部署在需要更低总容量的单个蜂窝基站。其目标是在任何部署场景中的同构加速基础设施上建立无处不在的 5G vRAN 软件层,以便在易于管理和操作的情况下充分利用 AI-RAN 的全部优势。

NVIDIA AI Aerial 将使用 NVIDIA Grace Hopper 和基于 NVIDIA Grace Blackwell 的 Aerial RAN 计算机系统(适用于以 AI 为中心的场景)为高密度 AI-RAN 部署提供支持。

新的 NVIDIA Compact Aerial RAN 计算机 (ARC-Compact) 将这些功能扩展到边缘,在空间和功率都十分有限且以 RAN 为中心的工作负载占主导地位的单个基站实现 AI-RAN。它们共同支持集中式和分布式 AI-RAN。

NVIDIA ARC-Compact:适用于基站的低功耗 AI-RAN 解决方案

ARC-Compact 旨在实现分布式 AI-RAN 部署场景。它将能效、GPU 加速的无线电处理和高性能 vRAN 相结合,利用 Arm 生态系统将蜂窝基站转变为多功能 5G 和 AI 中心。它在典型功率和空间限制范围内提供最佳基站容量,同时满足外形尺寸要求,从而解决了基站的独特限制。

ARC-Compact 在 C-RAN 和 D-RAN 中支持相同的软件定义代码库,遵循可升级至 6G 的软件这一首要原则。它使用 NVIDIA Grace CPU C1 构建,配备 72 个高性能、节能高效的 Arm Neoverse V2 核心。搭载 NVIDIA L4 Tensor Core GPU 的 PCIe 插件卡用于加速处理无线电功能或 AI 工作负载。NVIDIA ConnectX-7 网络接口卡 (NIC) 提供快速以太网连接。

ARC-Compact 基于内部 NVIDIA 基准测试,满足表 1 中概述的分布式 AI-RAN 的关键要求。

要求 ARC-Compact 的优势
能效 * Gbps/Watt,与当今的传统基带系统相似* 利用低功耗 72W L4 GPU 和节能高效的 ARM CPU,在典型基站范围内满足总功耗
5G vRAN 性能 支持 TDD 和 FDD、标准 4TR 和大规模 64TR MIMO 的混合多达 30 个扇区载波,支持 25 Gbps 的系统吞吐量支持 O-RAN 7-2 和 7-3 RU 拆分支持内联和旁路第 1 层函数嵌入式 NVIDIA CUDA 加速 RAN 算法 (cuPHY、cuMAC) ,可提高频谱效率和性能
AI 处理 适用于 RAN 创新的高级 AI 模型和 AI,包括神经网络、基于 NVIDIA GPU 加速的站点特定学习适用于 AI 应用 (例如视频搜索和摘要、网络安全、计算机视觉和 LLM 推理) 的附加 NVIDIA GPU 选项
环境合规性 2RU 高度,17 英寸半深度 – 非常适合基站机柜支持+ 55 ° C 到 -5 ° C 操作范围符合美国 NEBS3 和欧洲 GR-63/1089-CORE 标准
软件可升级 ・完全软件定义,可升级至 6G
表 1。ARC-Compact 满足分布式 AI-RAN 的关键要求

ARC-Compact 的采用率和可用性

  • ARC-Compact 预计将通过 Foxconn、Lanner、Quanta Cloud Technology 和 Supermicro 等多家 OEM 和 ODM 合作伙伴提供,我们正与这些合作伙伴合作开发基于 Grace CPU C1 的系统。我们预计将在今年晚些时候在市场上看到各种配置,以支持电信分布式 AI-RAN 用例。
  • T-Mobile 资本市场日宣布的 AI-RAN 联合创新中心合作伙伴关系 为 NVIDIA ARC-Compact 分布式 AI-RAN 部署解决方案的开发提供了见解。新解决方案将作为 D-RAN 参考架构,用于下一阶段的 AI-RAN 协作。
  • Vodafone 将继续与 NVIDIA 合作,评估基于 ARM 的 NVIDIA ARC-Compact 分布式 AI-RAN 解决方案,这符合其主要 OpenRAN 目标,即在边缘优化的短深度服务器上提供更高性能和更高效的分布式计算。
  • 作为抢先体验计划的一部分,诺基亚获得了 NVIDIA ARC-Compact 的种子系统,并正在通过早期基准测试测试其 5G Cloud RAN 软件,以证明 ARC-Compact 适用于分布式 RAN 部署场景。这进一步推进了诺基亚和 NVIDIA 在 AI-RAN 方面的持续合作。
  • 三星 正在扩大与 NVIDIA 的 AI-RAN 合作,将其 5G vRAN 与 NVIDIA ARC-Compact 集成到分布式 AI-RAN 解决方案中。三星已经完成了一项概念验证,以验证其 vRAN 软件与 NVIDIA L4 GPU 之间的无缝集成,这表明去年的网络性能和效率得到了提升。三星目前正在评估其搭载 NVIDIA Grace C1 和 NVIDIA L4 Tensor Core GPU 的 vRAN 软件,以加速其他 AI 工作负载 (包括 AI/ML 算法) ,从而进一步提升性能和效率。

NVIDIA 凭借其 AI Aerial 产品组合 一直处于 AI-RAN 解决方案的前沿。现有的 Aerial RAN 计算机系统已经成为与 Indosat Ooredoo Hutchison、SoftBank 和 T-Mobile 等客户以及 Capgemini、Fujitsu、Kyocera 和 SynaXG 等解决方案合作伙伴开展的 AI-RAN 合作的一部分。借助 ARC-Compact,它现在包括高密度和低密度系统,以满足以 AI 为中心、以 RAN 为中心,甚至是仅 AI 和仅 RAN 模式的需求。这可在集中式和分布式 AI-RAN 部署场景中实现同构的软件和硬件架构,这是运营商构建 AI-RAN 网络的关键要求。

ARC-Compact 关键构建模块

A Stack diagram shows the key components of the NVIDIA Compact Aerial RAN Computer and NVIDIA AI Aerial Reference Architecture for AI-RAN Deployment platform.
图 1。NVIDIA Compact Aerial RAN 计算机,作为 NVIDIA AI Aerial 参考架构的一部分

ARC-Compact 旨在利用以下硬件和软件组件高效处理 5G vRAN 和 AI 工作负载。

NVIDIA Grace CPU 

NVIDIA Grace CPU 专为运行 AI、vRAN、云、边缘和高性能计算应用的现代数据中心而设计。其能效是当今领先的服务器处理器的 2 倍。NVIDIA Grace 架构与 Arm 生态系统完全兼容,可确保数据中心中专为 Arm 设计的任何应用均在 Grace 上无缝运行,反之亦然,从而为电信运营商的 vRAN 部署提供所需的供应商多样性。

NVIDIA L4 Tensor Core GPU 

“L4 Tensor Core GPU PCIe 插件卡为高吞吐量、低延迟 AI 工作负载和 RAN 加速提供经济高效的解决方案。它支持具有 24 GB GPU 显存的 FP8 Tensor Core,可实现 485 teraFLOPS 的性能,适用于边缘 AI 工作负载 (如视频搜索和摘要) 和视觉语言模型,以及无线电 Layer 1 和一些第 2 层功能 (如调度) 。L4 提供的 AI 视频性能比基于 CPU 的解决方案高 120 倍,并且半高外形规格在 72W TDP 低功耗范围内运行。

NVIDIA ConnectX-7 

NVIDIA ConnectX-7 提供高速、低延迟的 Ethernet 连接,支持前传、中传或回传,还可以路由 AI 流量或提供高级卸载。它提供多达四个连接端口和高达 400 Gbps 的总吞吐量,并为电信行业提供数据中心规模的硬件加速网络、存储、安全性和可管理性服务,包括用于 Transport Layer Security (TLS) 、IP Security (IPsec) 和 MAC Security (MACsec) 的内联硬件加速等功能

软件架构 

ARC-Compact 基于 NVIDIA Aerial CUDA 加速 RAN 软件实现,利用 CPU 和 GPU 提供 5G vRAN。表 2 显示了 ARC-Compact 支持的各种 RAN 函数和 AI 工作负载所使用的计算。

工作负载 Grace CPU C1 L4 GPU
RAN 和 CNF FDD 第 1 层 TDD 和 FDD 第 2 层分布式 UPF RIC 应用 * 用于标准和大规模 MIMO 的 TDD 第 1 层 L1 中的嵌入式 AI/ML 算法,以及加速调度程序 (cuMAC、cuPHY) 等第 2 层功能
AI 不适用 高级 AI 模型,例如用于通道估计的神经网络模型 LLM、VLM 推理、视频搜索和摘要、网络安全、智慧城市/ 物联网 AI 应用、计算机视觉等 RIC 应用
表 2。用于 RAN 函数和 ARC-Compact 支持的 AI 工作负载的 Compute

电信服务提供商的 Core benefits

对于希望在蜂窝基站部署分布式 AI-RAN 的电信服务提供商,NVIDIA ARC-Compact 提供了一种低功耗、紧凑且经济的解决方案,用于提供高性能 5G 和 AI 推理。主要优势包括:

  • 适用于蜂窝基站的高效解决方案:ARC-Compact 可在低功耗范围内提供高性能 5G vRAN 和 AI 工作负载,从而实现可持续、经济高效的分布式 AI-RAN 部署。
  • AI 赋能的无线电和边缘创新 :通过集成 PCIe 插件 L4 GPU,它可实现用于无线电信号处理的先进 AI/ ML 算法,从而提高频谱效率和网络利用率,并在边缘解锁新的 AI 驱动服务。
  • 利用 ARM 生态系统实现灵活性和多样性 :ARC-Compact 基于具有 Arm 核心的 NVIDIA Grace C1 CPU 构建,使电信运营商能够从不断发展的 ARM 生态系统中受益,并使其 vRAN 解决方案的供应商群体多样化。
  • 在所有部署中实现同构、软件定义的 vRAN :ARC-Compact 运行的 5G vRAN 软件与集中式 AI-RAN 站点相同,可实现统一、完全软件定义的网络,该网络可轻松升级到 6G,并简化管理,无论部署场景如何。
  • 针对现实世界的基站要求进行了优化 :它外形紧凑、温度范围宽且符合全球电信标准,专为单个平台上的边缘 AI-RAN 部署而构建。

该系统可以灵活配置,以支持各种 AI-RAN 用例,包括:

  • 以 RAN 为中心或仅 RAN:这预计将成为大多数分布式部署的主要用例,并通过单个 Grace C1 CPU 和单个 L4 GPU 配置提供服务。
  • 以 AI 为中心:主要使用用于 RAN 的 Grace CPU (如 FDD) ,并将 L4 GPU 专用于 AI 或视觉处理应用。
  • 以 RAN 和 AI 为中心:利用专用于 AI 或视觉处理的附加 L4 GPU,同时通过单个 C1 和 L4 同时支持高端 RAN 工作负载。

结论:AI-RAN 催化剂

A Diagram shows the three components of NVIDIA AI Aerial Portfolio to develop, simulate, and deploy AI-native wireless networks.
图 2。适用于 AI 原生无线网络的 NVIDIA AI Aerial 产品组合

NVIDIA 于 2024 年推出了 Aerial RAN Computer-1 ,展示了 AI-RAN 的优势,例如通过外部现场试验,每 1 美元的 CAPEX 收入增加了 5 倍,能效比一流的 ASIC 系统提高了 40%,容量利用率提高了 3 倍。这一时刻标志着 AI-RAN 技术及其生态系统的转折点。许多客户和合作伙伴开始推进其 AI-RAN 目标。

NVIDIA ARC-Compact 是 AI-RAN 采用的下一个催化剂,使电信公司能够在每个基站部署功能强大、节能且灵活的 AI-RAN 解决方案。它与 Aerial RAN Computer-1 相结合,通过全栈平台为 AI-RAN 构建块添加支持,该平台支持可扩展的硬件、通用软件和开放式架构,能够与生态系统合作伙伴一起在任何部署场景中提供高性能 AI-RAN。

电信公司还重视全套 NVIDIA AI Aerial 产品组合,其中包括用于训练、模拟和部署 AI-RAN 的三个计算机系统。例如,在 Aerial Omniverse 数字孪生和实时 Aerial RAN 计算机中实施了相同的 NVIDIA Aerial CUDA-Accelerated RAN 软件版本,使客户能够在现场部署新 AI 模型之前以可预测的方式对其性能进行模拟,并继续通过数据循环对其进行微调。

随着行业加速采用 AI 原生无线网络,NVIDIA AI Aerial 为分布式智能的新时代奠定了基础,在整个无线领域释放了前所未有的效率、创新和价值。

在 NVIDIA GTC 2025 上,从电信行业领导者小组了解有关 AI-RAN 实际应用的更多信息。

 

标签