网络

使用 NVIDIA DOCA GPUNetIO 进行内联 GPU 数据包处理

越来越多的网络应用程序需要进行 GPU 实时数据包处理,以实现高数据率解决方案:数据过滤、数据放置、网络分析、传感器信号处理等。

一个主要动机是 GPU 可以实现并行处理多个数据包的高度并行性,同时提供可扩展性和可编程性。

有关这些技术的基本概念以及基于 DPDK gpudev 库的初始解决方案的概述,请参见 Boosting Inline Packet Processing Using DPDK and GPUdev with GPUs

这篇文章解释了新的 NVIDIA DOCA GPUNetIO 库如何克服以前 DPDK 解决方案中的一些限制,向以 GPU 为中心的数据包处理应用程序迈进了一步。

介绍

网络分组的实时 GPU 处理是一种适用于几个不同应用领域的技术,包括信号处理、网络安全、信息收集和输入重建。这些应用程序的目标是实现一个内联数据包处理管道,以在 GPU 内存中接收数据包(无需通过 CPU 内存暂存副本);与一个或多个 CUDA 内核并行地处理它们;然后运行推断、评估或通过网络发送计算结果。

通常,在这个管道中, CPU 是中介,因为它必须使网卡( NIC )接收活动与 GPU 处理同步。一旦 GPU 内存中接收到新的数据包,这将唤醒 CUDA 内核。类似的考虑可以应用于管道的发送端。

Graphic showing a CPU-centric application wherein the CPU has to wake up the network card to receive packets (that will be transferred directly in GPU memory through DMA), unblock the CUDA kernel waiting for those packets to arrive in GPU to actually start the packet processing.
图 1 。以 CPU 为中心的应用程序, CPU 协调 GPU 和网卡工作

Data Plane Development Kit ( DPDK )框架引入了 gpudev library 来为此类应用提供解决方案:使用 GPU 内存( GPUDirect RDMA 技术)结合低延迟 CPU 同步进行接收或发送。有关协调 CPU 和 GPU 活动的不同方法的更多信息,请参见 Boosting Inline Packet Processing Using DPDK and GPUdev with GPUs

GPU 启动的通信

从图 1 中可以看出, CPU 是主要瓶颈。它在同步 NIC 和 GPU 任务以及管理多个网络队列方面承担了太多的责任。例如,考虑一个具有多个接收队列和 100 Gbps 传入流量的应用程序。以 CPU 为中心的解决方案将具有:

  • CPU 调用每个接收队列上的网络功能,以使用一个或多个 CPU Core 接收 GPU 存储器中的数据包
  • CPU 收集数据包信息(数据包地址、编号)
  • CPU 向 GPU 通知新接收的分组
  • GPU 处理数据包

这种以 CPU 为中心的方法是:

  • 资源消耗:为了处理高速率网络吞吐量( 100 Gbps 或更高),应用程序可能需要专用整个 CPU 物理核心来接收(和/或发送)数据包
  • 不可扩展:为了与不同的队列并行接收(或发送),应用程序可能需要使用多个 CPU 内核,即使在 CPU Core 的总数可能被限制在较低数量(取决于平台)的系统上也是如此
  • 依赖于平台:低功耗 CPU 上的相同应用程序将降低性能

GPU 内联分组处理应用程序的下一个自然步骤是从关键路径中删除 CPU 。移动到以 GPU 为中心的解决方案, GPU 可以直接与 NIC 交互以接收数据包,因此数据包一到达 GPU 内存,处理就可以开始。同样的注意事项也适用于发送操作。

GPU 从 CUDA 内核控制 NIC 活动的能力称为 GPU 启动的通信。假设使用 NVIDIA GPU 和 NVIDIA NIC ,则可以将 NIC 寄存器暴露给 GPU 的直接访问。这样, CUDA 内核可以直接配置和更新这些寄存器,以协调发送或接收网络操作,而无需 CPU 的干预。

Graphic showing a GPU-centric application, with the GPU controlling the network card and packet processing without the need of the CPU.
图 2 :以 GPU 为中心的应用程序, GPU 控制网卡和数据包处理,无需 CPU

根据定义, DPDK 是 CPU 框架。要启用 GPU 启动的通信,需要在 GPU 上移动整个控制路径,这是不适用的。因此,通过创建新的 NVIDIA DOCA 库来启用此功能。

NVIDIA DOCA GPUNetIO 库

NVIDIA DOCA SDK 是新的 NVIDIA 框架,由驱动程序、库、工具、文档和示例应用程序组成。这些资源是利用 NVIDIA 硬件可以在主机系统和 DPU 上公开的网络、安全性和计算功能来利用应用程序所必需的。

NVIDIA DOCA GPUNetIO 是在 NVIDIA DOCA 1.5 版本的基础上开发的一个新库,用于在 DOCA 生态系统中引入 GPU 设备的概念(图 3 )。为了促进创建以 DOCA GPU 为中心的实时数据包处理应用程序, DOCA GPUNetIO 结合了 GPUDirect RDMA 用于数据路径加速、智能 GPU 内存管理、 CPU 和 GPU 之间的低延迟消息传递技术(通过 GDRCopy 功能)和 GPU 启动的通信。

这使 CUDA 内核能够直接控制 NVIDIA ConnectX 网卡。为了最大化性能, DOCA GPUNetIO 库必须用于 GPUDirect 友好的平台,其中 GPU 和网卡通过专用 PCIe 网桥直接连接。 DPU converged card 是一个示例,但同样的拓扑也可以在主机系统上实现。

DOCA GPUNetIO 目标是 GPU 分组处理网络应用程序,使用以太网协议在网络中交换分组。对于这些应用程序,不需要像基于 RDMA 的应用程序那样,通过 OOB 机制跨对等端进行预同步阶段。也无需假设其他对等方将使用 DOCA GPUNetIO 进行通信,也无需了解拓扑。在未来的版本中, RDMA 选项将被启用以覆盖更多的用例。

DOCA 当前版本中启用的 GPUNetIO 功能包括:

  • GPU 启动的通信​: DOCA 内核可以调用 CUDA GPUNetIO 库中的 CUDA device 函数,以指示网卡发送或接收数据包
  • 精确的发送调度:通过 GPU 启动的通信,可以根据用户提供的时间戳来调度未来的数据包传输
  • GPUDirect RDMA :以连续固定大小 GPU 内存跨步接收或发送数据包,无 CPU 内存暂存副本
  • 信号量:在 CPU 和 GPU 之间或不同 GPU CUDA 内核之间提供标准化的低延迟消息传递协议
  • CPU 对 CUDA 内存的直接访问: CPU 可以在不使用 GPU 内存 API 的情况下修改 GPU 内存缓冲区
Graphic depicting NVIDIA DOCA GPUNetIO configuration requiring a GPU and CUDA drivers and libraries installed on the same platform.
图 3 。 NVIDIA DOCA GPUNetIO 是一个新的 DOCA 库,需要在同一平台上安装 GPU 和 CUDA 驱动程序和库

如图 4 所示,典型的 DOCA GPUNetIO 应用步骤如下:

  • CPU 上的初始配置阶段
    • 使用 DOCA 识别和初始化 GPU 设备和网络设备
    • 使用 DOCA GPUNetIO 创建可从 CUDA 内核管理的接收或发送队列
    • 使用 DOCA Flow 确定应在每个接收队列中放置哪种类型的数据包(例如, IP 地址的子集、 TCP 或 UDP 协议等)
    • 启动一个或多个 CUDA 内核(执行数据包处理/过滤/分析)
  • CUDA 内核内 GPU 上的运行时控制和数据路径
    • 使用 DOCA GPUNetIO CUDA 设备函数发送或接收数据包
    • 使用 DOCA GPUNetIO CUDA 设备函数与信号量交互,以使工作与其他 CUDA 内核或 CPU 同步
Flow chart showing generic GPU packet processing pipeline data flow composed by several building blocks: receive packets in GPU memory, first staging GPU packet processing or filtering, additional GPU processing (AI inference, for example), processing output stored in GPU memory.
图 4 。由多个构建块组成的通用 GPU 分组处理管道数据流

以下各节概述了结合 DOCA GPUNetIO 构建块的可能 GPU 分组处理管道应用程序布局。

CPU 接收和 GPU 处理

第一个示例以 CPU 为中心,不使用 GPU 启动的通信功能。它可以被视为以下章节的基线。 CPU 创建可从 CPU 自身管理的接收队列,以接收 GPU 存储器中的数据包,并为每个队列分配流量控制规则。

在运行时, CPU 接收 GPU 存储器中的数据包。它通过 DOCA GPUNetIO 信号量向一个或多个 CUDA 内核通知每个队列新一组数据包的到达,提供 GPU 内存地址和数据包数量等信息。在 GPU 上, CUDA 内核轮询信号量,检测更新并开始处理数据包。

Graphic showing GPU packet processing pipeline with CPU receiving packets in GPU memory and using DOCA GPUNetIO semaphore to notify the packet processing CUDA kernel about incoming packets.
图 5. GPU 数据包处理管道, CPU 在 GPU memory 中接收数据包,并使用 NVIDIA DOCA GPUNetIO 信号量通知数据包处理 CUDA 内核有关传入数据包

这里, DOCA GPUNetIO 信号量具有类似于 DPDK gpudev communication list 的功能,使得 CPU 接收分组和 GPU 在处理这些分组之前等待接收这些分组之间能够实现低延迟通信机制。信号量还可用于 GPU 在包处理完成时通知 CPU ,或在两个 GPU CUDA 内核之间共享关于已处理包的信息。

该方法可作为绩效评估的基准。由于它以 CPU 为中心,因此严重依赖 CPU 型号、功率和内核数量。

GPU 接收和 GPU process

上一节中描述的以 CPU 为中心的流水线可以通过以 GPU 为中心的方法进行改进,该方法使用 GPU 发起的通信,使用 CUDA 内核管理接收队列。以下部分提供了两个示例:多 CUDA 内核和单 CUDA 内核。

多 CUDA 内核

使用这种方法,至少涉及两个 CUDA 内核,一个专用于接收分组,另一个专用用于分组处理。接收机 CUDA 内核可以通过信号量向第二 CUDA 内核提供分组信息。

Graphic showing GPU packet processing pipeline without the CPU in the picture. A GPU CUDA kernel is dedicated to receiving packets in GPU memory and providing packets’ info to a second CUDA kernel responsible for packet processing through a DOCA GPUNetIO semaphore.
图 6. GPU 数据包处理管道, CPU 在 GPU memory 中接收数据包,并使用 DOCA GPUNetIO 信号量通知数据包处理 CUDA 内核有关传入数据包

这种方法适用于高速网络和延迟敏感的应用,因为两个接收操作之间的延迟不会被其他任务延迟。期望将接收机 CUDA 内核的每个 CUDA 块关联到不同的队列,并行地接收来自所有队列的所有分组。

单 – CUDA 内核

通过使单个 CUDA 内核负责接收和处理分组,仍然为每个队列专用一个 CUDA 块,可以简化先前的实现。

Graphic showing GPU packet processing pipeline with a single GPU CUDA kernel receiving packets in GPU memory and doing the packet processing
图 7. GPU 数据包处理管道,单个 GPU CUDA 内核接收 GPU 内存中的数据包并进行数据包处理

这种方法的一个缺点是每个 CUDA 块两个接收操作之间的延迟。如果数据包处理需要很长时间,应用程序可能无法跟上在高速网络中接收新数据包的速度。

GPU 接收、 GPU 处理和 GPU send

到目前为止,大多数关注点都集中在管道的“接收和处理”部分。然而, DOCA GPUNetIO 还可以在 GPU 上生成一些数据,制作数据包并从 CUDA 内核发送,而无需 CPU 干预。图 8 描述了一个完整的接收、处理和发送管道的示例。

Graphic showing GPU packet processing pipeline with GPU CUDA kernel receiving packets in GPU memory, doing the packet processing, and finally crafting new packets.
图 8.具有 CUDA GPU 内核的 GPU 数据包处理管道在 GPU 内存中接收数据包,进行数据包处理,最后制作新数据包

NVIDIA DOCA GPUNetIO 示例应用程序

与任何其他 NVIDIA DOCA 库一样, DOCA GPUNetIO 有一个专用应用程序,用于 API 使用参考和测试系统配置和性能。该应用程序实现了前面描述的管道,提供了不同类型的数据包处理,如 IP 校验和、 HTTP 数据包过滤和流量转发。

以下部分概述了应用程序的不同操作模式。报告了一些性能数据,将其视为可能在未来版本中更改和改进的初步结果。使用两个基准系统,一个用于接收数据包,另一个用于发送数据包,背靠背连接(图 9 )。

运行 DOCA GPUNetIO 应用程序的接收器是带有 NVIDIA BlueField-2X DPU converged card 的 Dell PowerEdge R750 。该配置为嵌入式 CPU 模式,因此应用程序使用 NIC NVIDIA ConnectX-6 Dx 和 DPU 的 GPU A100X 在主机系统 CPU 上运行。软件配置为 Ubuntu 20.04 、 MOFED 5.8 和 CUDA 18.1 。

发送器是千兆字节 Intel Xeon Gold 6240R ,具有与 NVIDIA ConnectX-6 Dx 的 PCIe Gen 3 连接。此计算机不需要任何 GPU ,因为它运行 T-Rex DPDK packet generator v2.99 。软件配置为 Ubuntu 20.04 和 MOFED 5.8 。

Graphic showing receiver (Dell R750) and sender (Gigabyte) systems connected back-to-back to benchmark NVIDIA DOCA GPUNetIO application.
图 9 。接收器( Dell R750 )和发送器(千兆字节)系统背靠背连接到基准 NVIDIA DOCA GPUNetIO 应用程序

该应用程序也已在 DPU Arm 内核上执行,导致了相同的性能结果,并证明了以 GPU 为中心的解决方案与 CPU 无关。

请注意, DOCA GPUNetIO 最低要求是具有 GPU 和具有直接 PCIe 连接的 NIC 的系统。 DPU 不是严格要求。

IP 校验和, GPU 仅接收

应用程序使用 GPU 发起的通信来创建一个或多个接收队列以接收分组。可以使用单 CUDA 内核或多 CUDA 内核模式。

Flow chart showing first pipeline mode in the NVIDIA DOCA GPUNetIO application: GPU receives, calculates IP checksum, and reports to the CPU.
图 10 。 NVIDIA DOCA GPUNetIO 应用程序中的第一个管道模式: GPU 接收、计算 IP 校验和并向 CPU 报告

每个数据包都通过简单的 IP 校验和验证进行处理,只有通过此测试的数据包才算作“好数据包”。通过信号量,好数据包的数量被报告给 CPU , CPU 可以在控制台上打印报告。

通过使用 T-Rex 数据包生成器以约 100 Gbps (约 11.97 Mpps )的速度发送 30 亿个 1 KB 大小的数据包,并在 DOCA GPUNetIO 应用程序端报告相同数量的数据包以及正确的 IP 校验和,实现了单队列零数据包丢失。相同的配置在 BlueField-2 融合卡上进行了测试,结果相同,证明了 GPU 启动的通信是一个独立于平台的解决方案。

由于数据包大小为 512 字节, T-Rex 数据包生成器无法发送超过 86 Gbps (约 20.9 Mpps )的数据包。即使每秒数据包的数量几乎是两倍, DOCA GPUNetIO 也没有报告任何数据包丢失。

HTTP 过滤, GPU 仅接收

假设一个更复杂的场景,数据包处理 CUDA 内核只过滤具有特定特征的 HTTP 数据包。它将“好包”信息复制到第二个 GPU 内存 HTTP 包列表中。一旦此 HTTP 数据包列表中的下一个项目充满了数据包,通过专用信号量,过滤 CUDA 内核就会解除第二个 CUDA 内核的阻止,从而对累积的 HTTP 数据包进行一些推断。信号量还可用于向 CPU 线程报告统计信息。

Graphic showing second pipeline mode in the NVIDIA DOCA GPUNetIO application. The GPU receives, filters only HTTP packets, and unblocks, through a dedicated semaphore, a CUDA kernel to run some analysis on those packets.
图 11 。 NVIDIA DOCA GPUNetIO 应用程序中的第二种管道模式。 GPU 只接收、过滤 HTTP 数据包,并通过专用信号量解除阻止 CUDA 内核对这些数据包进行分析 .

该流水线配置提供了复杂流水线的示例,该复杂流水线包括多个数据处理和过滤阶段以及诸如 AI 流水线之类的推理功能。

前方交通量

本节介绍如何通过 GPU 启动的通信使用 DOCA GPUNetIO 启用流量转发。在每个接收到的数据包中,在通过网络发送回数据包之前,交换 MAC 和 IP 源地址和目的地址。

Chart showing third pipeline mode in the NVIDIA DOCA GPUNetIO application. The GPU receives, swaps MAC and IP addresses for each packet, and sends back the modified packets.
图 12 。 NVIDIA DOCA GPUNetIO 应用程序中的第三种管道模式。 GPU 接收、交换每个数据包的 MAC 和 IP 地址,并发送回修改后的数据包。

通过使用 T-Rex 数据包生成器以~ 90 Gbps 的速度发送 30 亿个 1KB 大小的数据包,实现了只有一个接收队列和一个发送队列的零数据包丢失。

用于 5G 的 NVIDIA Aerial SDK

决定采用以 GPU 为中心的解决方案的动机可能是性能和低延迟要求,但也可能是为了提高系统容量。 CPU 在处理连接到接收器应用程序的越来越多的对等点时可能成为瓶颈。 GPU 提供的高度并行化可以提供可扩展的实现,以并行处理大量对等体,而不会影响性能。

NVIDIA Aerial 是一个用于构建高性能、软件定义的 5G L1 堆栈的 SDK ,该堆栈通过 GPU 上的并行处理进行了优化。具体而言, NVIDIA Aero SDK 可用于构建基带单元( BBU )软件,该软件负责通过无线电单元( RU )发送(下行链路)或接收(上行链路)无线客户端数据帧,该数据帧被拆分为多个以太网包。

在上行链路中, BBU 接收分组,验证分组,并在触发信号处理之前重建每个 RU 的原始数据帧。使用 NVIDIA Aerial SDK ,这在 GPU 中发生: GPU 内核专用于每个时隙的每个 RU ,以重建帧并触发 CUDA 信号处理的 CUDA 内核序列。

通过 DPDK gpudev 库实现了网卡接收数据包以及 GPU 重新排序和处理数据包的编排(图 13 )。

Graphic showing NVIDIA Aerial 5G L1 CPU-centric architecture with DPDK gpudev library.
图 13 。 NVIDIA Aerial 5G L1 以 CPU 为中心的架构,带有 DPDK gpudev 库

第一个实现在现代 Intel x86 系统上仅使用一个 CPU 内核,就能够以 25 Gbps 的速度保持 4 RU 的工作速度。然而,随着小区数量的增加,网卡和 GPU 之间的 CPU 功能成为瓶颈。

A CPU 按顺序工作。随着单个 CPU 核心接收和管理越来越多的 RU 的流量,同一 RU 的两次接收之间的时间取决于 RU 的数量。对于 2 个 CPU 核,每个核在 RU 的子集上工作,相同 RU 的两次接收之间的时间减半。然而,这种方法对于越来越多的客户机是不可扩展的。此外, PCIe 事务的数量从 NIC 增加到 CPU ,然后从 CPU 增加到 GPU (图 14 )。

Graphic showing NVIDIA Aerial 5G application CPU-centric control flow with several RU connected. The CPU core receives and notifies the GPU rebuild kernel for every connected RU sequentially. This is not a scalable approach.
图 14 。 NVIDIA Aerial 5G 应用程序以 CPU 为中心的控制流程,连接了多个 RU 。 CPU 内核顺序地接收并通知每个连接的 RU 的 GPU 重建内核。这不是一种可扩展的方法。

为了克服所有这些问题, NVIDIA Aerial SDK 的以 GPU 为中心的新版本已通过 DOCA GPUNetIO 库实现。每个 CUDA 内核负责在每个时隙重建来自特定 RU 的数据包,并通过接收能力进行了改进(图 15 )。

Graphic showing GPU-centric NVIDIA Aerial SDK 5G architecture with NVIDIA DOCA GPUNetIO.
图 15 。以 GPU 为中心的 NVIDIA Aerial SDK 5G 架构,采用 NVIDIA DOCA GPUNetIO

此时,关键路径中不需要 CPU ,因为每个 CUDA 内核都是完全独立的,能够并行和实时处理越来越多的 RU 。这增加了系统容量,并减少了每个插槽处理数据包的延迟和 PCIe 事务的数量。 CPU 不必与 GPU 通信以提供分组信息。

Graphic showing NVIDIA Aerial 5G SDK GPU-centric control flow with several RUs connected. Packets coming from different RUs are received and processed in parallel from independent GPU kernels. This is a scalable approach, which guarantees equal and fair service to all the connections.
图 16 。 NVIDIA Aerial 5G SDK 以 GPU 为中心的控制流,连接了多个 RU 。这是一种可扩展的方法,它保证了对所有连接的平等和公平服务。

根据标准, 5G 网络必须根据特定模式交换数据包。每个时隙(例如 500 微秒),数据包应该以 14 个所谓的符号发送。每个符号由若干个数据包组成(取决于使用情况),这些数据包将在较小的时间窗口(例如, 36 微秒)内发送。为了在下行链路侧支持这种定时传输模式, NVIDIA Aerial SDK 通过 DOCA GPUNetIO API 将 GPU 启动的通信与精确发送调度相结合。

一旦 GPU 信号处理准备好要在未来时隙中发送的数据,每个 RU 的专用 CUDA 内核将该数据分割成每个 RU 的以太网分组,并在未来的特定时间调度它们的未来传输。然后,同一 CUDA 内核将数据包推送到 NIC , NIC 将负责在正确的时间发送每个数据包(图 17 )。

Graphic depicting NVIDIA Aerial 5G SDK timed transmission pattern implemented with NVIDIA DOCA GPUNetIO using GPU-initiated communications and the Accurate Send Scheduling feature.
图 17 。 NVIDIA Aerial 5G SDK 定时传输模式使用 GPU 启动的通信和精确发送调度功能,通过 NVIDIA DOCA GPUNetIO 实现

尽早访问 NVIDIA DOCA GPUNetIO

作为研究项目的一部分, DOCA GPUNetIO 包处于实验状态。它可以早期访问,是最新 DOCA 版本的扩展。它可以安装在主机系统或 DPU 融合卡上,包括:

  • 应用程序初始设置阶段的一组 CPU 函数,用于准备环境并创建队列和其他对象
  • 您可以在 CUDA 内核中调用一组特定于 GPU 的函数,以发送或接收数据包,并与 DOCA GPUNetIO 信号量交互
  • 您可以构建和运行应用程序源代码来测试功能,并了解如何使用 DOCA GPUNetIO API

硬件要求是 ConnectX-6 Dx 或更新的网卡和 GPU Volta 或更新的。强烈建议在两者之间使用专用 PCIe 网桥。软件要求为 Ubuntu 20.04 或更新版本、 CUDA 11.7 或更新版本以及 MOFED 5.8 或更新版本。

如果您有兴趣了解更多信息并获得 NVIDIA DOCA GPUNetIO 的实际经验,以帮助您开发下一个关键应用程序 contact NVIDIA Technical Support for early access 。请注意, DOCA GPUNetIO 库目前仅在 NVIDIA 的 NDA 下可用。

 

Tags