网络

在近实时智能控制器中实现 GPU 加速

发现 COVID-19 疫苗所花的时间证明了医疗行业的创新步伐。创新的步伐可以直接联系到蓬勃发展的创新者生态系统和大量基于人工智能的医疗保健初创公司。相比之下, 5G 无线产业引进下一代系统大约需要十年时间。

O-RAN 联盟是解决创新速度和部署后功能增强问题的一种先驱。不透明设计的传统模式正在被具有开放和标准化界面的透明范式所打破。忘记使用封闭和专有的接口,以及为生态系统提供有限的选项,以便将新功能引入已部署的设备。

新的范例包括诸如 RAN 智能控制器( RIC )之类的概念, RIC 是一项关键技术,它使第三方能够向网络添加新功能。这不仅为开发者生态系统,也为网络运营商提供了赚钱的机会。

无线的未来

软件化、虚拟化和分散化是 5G 及以上通信网络的一些基本概念。 RAN 的软件化及其使用软件无线电( SDR )范式的实现对于支持 5G 的三个关键用例至关重要:

  • 增强型移动宽带( eMBB )
  • 超可靠低延迟通信( URLLC )
  • 大规模机器类型通信( mMTC )

4G 和 5G 之间的一个关键区别在于,通过软件,能够动态地启动和拆除由 eMBB 、 URLLC 和 mMTC 流组成的网络片。事实上,这是 5G 的核心价值主张。

虚拟化是在移动边缘计算( MEC )中高效共享硬件和软件资产以支持异构工作负载的一个促成因素。分解代表了无线产业新生态系统的曙光。它为广大的 spe CTR um 和新一代硬件开发人员打开了新的商机之门。

传统的、单片的、不透明的无线基础设施设备被分解为集中式单元( CU )、分布式单元( DU )和无线单元( RU )的逻辑实体。这使得传统网络和新兴的专用 5G 网络运营商能够灵活地定制系统架构,以满足其运营和业务需求。

这种无线网络基础设施新方法的一个同样重要的组成部分是硬件和软件子系统之间物理和逻辑接口的标准化。随着开放软件栈的开发,这些功能使得能够通过软件快速部署新的网络功能。它们还使新一代软件生态系统开发人员能够编写应用程序代码,以便在网络中部署。这些应用程序通过这些标准化的接口和 api ,促进了对 CU 、 DU 和 RU 中运行的实体的控制和交互。

RAN 智能控制器

O-RAN 联盟正在标准化一个开放的、智能的、可分解的 RAN 体系结构。 目标是使用 COTS 硬件构建运营商定义的 RAN ,并为 5G 和未来一代 6G 无线网络提供基于 AI / ML 的智能控制。将使用专有硬件、接口和软件构建的传统 RAN 替换为使用 COTS 硬件和开放接口的 VRAN 。新的体系结构可以选择支持专有软件和生态系统开发的应用程序。

O-RAN 标准最重要的元素之一是图 1 所示的 RAN 智能控制器( RIC )。 RIC 由两个主要组件组成:

  • 非实时 RIC ( Non-RT RIC ):支持时间尺度大于 1 秒的网络功能。
  • 近实时 RIC (近实时 RIC ):支持以 10 毫秒 -1 秒的时间尺度运行的函数。

作为 SMO 框架的一部分,非 RT RIC 的一些职责包括 ML 模型生命周期管理和 ML 模型选择。它还包括对从 CU 、 DU 甚至 RU 收集的数据进行编组、整理和预处理,为在训练主机上进行模型训练做准备。

O-RAN 架构中引入的近 RT-RIC 为系统带来了软件定义的智能。它包括对 CU 和 DU 数据流的高级近实时分析、 AI 模型推理和机器学习( ML )模型的在线再培训。

SMO 、 Non-RT-RIC 和 Near-RT-RIC 共同将 ML 技术引入到网络体系结构的所有层:第 1 层 PHY 、第 2 层,以及通过基于 AI 的自组织网络( SoN )功能在网络级别本身。

The complete O-RAN architecture picture and the interfaces that link the different entities for data and control functionalities.
图 1 . O-RAN RIC 体系结构由非 RT RIC 、近 RT RIC 和这些软件实体之间的各种接口组成。这些接口允许从 CU 、 DU 和 RU 中进行控制、配置和数据提取。 来源: 开放、可编程和虚拟化 5G 网络:现状和未来之路

为了帮助更详细地理解 RIC ,请考虑一个 LTE 示例。该方法类似于 5G NR 。该示例通过使用长 – 短期记忆( LSTM )业务预测模型,使用支持 RIC 的 AI 进行小区容量管理。其目标是预测网络中所有小区的通信量并缓解未来的拥塞。有关更多信息,请参阅 超 5G 和 6G 无线网络的智能 O-RAN

两层 LSTM 网络每层使用 12 个 LSTM 单元。它是在一个真实的、完全可操作的无线网络中使用来自 17 个 LTE enb 的 UE 吞吐量测量和物理资源块( PRB )利用率来训练的。推断操作预测未来 1 小时内 UE 吞吐量和 eNB 下行链路 PRB 利用率。

图 2 显示了一个 eNB 的一个小区的吞吐量和 PRB 利用率的基本事实(实际)和预测( LSTM 推断)。平均预测准确率为 92 . 64% 。由于能够预测未来 1 小时内的小区负荷, eNB 可以采取措施避免覆盖中断,例如小区分裂。

Figure 2 shows how much IP throughout a user can receive and the PRB utilization that can be predicted for a cell.
图 2 .网络中所选 eNB 的小区的用户感知 IP 吞吐量和 PRB 利用率预测。 来源: 超 5G 和 6G 无线网络的智能 O-RAN

在本例中, SMO 的作用是通过 O1 接口(图 1 )从 O-CU / DU 收集数据并将其传送到非 RT RIC 。非 RT-RIC rApp 反过来查询与 SMO 相关联的 AI 服务器。 AI 服务器运行一个训练过程,根据从操作网络收集的新数据更新 LSTM 模型参数。

从编程模型和计算能力的角度来看, gpu 是 ML 训练的自然选择。无线网络规模庞大,训练工作量大。 我们不感兴趣的模型训练为一个单一的 eNB 与几个细胞。相反,我们感兴趣的是培训一个系统,它可以有 100 到 1000 个基站,有 1000 个小区和 1000 到 10000 个用户终端。拥有一个 GPU 支持的人工智能培训服务器,就可以在许多 SMO 主机上共享基础设施。它比 CPU 人工智能培训主机更具成本和能效。换言之,网络运营商既有资本支出优势,也有运营支出优势。

在训练服务器更新 LSTM 模型之后,更新的模型参数被返回到非 RT-RIC rApp ,并且吞吐量/ PRB 预测过程继续使用更新的模型。图 3 显示了吞吐量增益。纵轴显示每个频段的用户吞吐量在横轴上表示的工作小时数的分数。

例如,您可以看到,在没有小区分裂的情况下,吞吐量在 5-7 . 5 Mbps 的范围内大约有 1% 的时间。通过预测细胞分裂,吞吐量在相同的范围内大约为 10% ,相差 10 倍。

Figure 3 shows how user throughput varies for different cell splitting configurations in an O-RAN setting.
图 3 .不同小区分裂配置的用户吞吐量。 来源: 超 5G 和 6G 无线网络的智能 O-RAN

NVIDIA 正在研究的 xApp 是实现智能和预测的多小区联合资源管理。这有可能显著提高网络的能源效率。

在非 RT-RIC 上运行的 AI 算法可以在一个预测窗口内(以秒到分钟的时间尺度)预测每个小区的用户密度和流量负载。预测基于 CUs 和 DUs 提供的交通历史。每个 DU 调度器都会做出关闭某些具有低预测流量负载的小区的决定,以降低能耗。它们还触发来自相邻活动小区的协调多点传输/接收( CoMP ),以确保有效覆盖。

近 RT-RIC 有助于在同一频段上实现 eMBB 和 URLLC 数据业务的高效复用。由于服务需求的显著差异, eMBB 和 URLLC 传输被安排在两个不同的时间尺度上: eMBB 和 URLLC 的时隙和小时隙级别。

位于近 RT RIC 的基于 AI 的 xApp 可以根据从 DU 通过 E2 接口传输的流量统计信息来学习和预测 URLLC 数据包到达模式(图 1 )。在 DU 调度器中使用这种预测知识来优化 eMBB 数据流之上的 URLLC 小时隙的资源预留。它还用于最小化这种多路复用造成的 eMBB 吞吐量损失。

您还可以设想一个 xApp 用于大规模 MIMO 波束形成优化,以最大限度地提高 spe CTR al 效率。在这种情况下,非 RT-RIC 承载 rApp 以执行长期数据分析。 rApp 的任务是收集和分析天线阵列参数,并不断更新 ML 模型。近 RT-ricxapp 正在实现 ML 推断以配置例如波束水平和垂直孔径以及单元形状。

为什么是 GPU ?

5G NR 物理层的信号处理需求( MACs /秒)是巨大的。 GPU 的大规模并行性带来了能够支持这类工作负载的硬件资源。事实上,一个 GPU 可以支持许多 10s 载波的基带处理需求。上一代系统通常采用专用硬件加速器。然而, GPU 的并行性通过提供高级编程信号处理算法的 C ++抽象来实现 RAN 的软件化。

然而, GPU 的价值超出了 vRAN 信号处理。在大数据与无线结合的 5G 和 6G 系统中, AI / ML 用于提高网络性能, GPU 是模型训练和推理的默认标准。

一个通用的基于 GPU 的硬件平台可以支持训练、推理和信号处理等任务。然而,这不仅仅是关于 GPU 硬件。一个同样重要的考虑因素是用于编程 gpu 和 sdk 的软件以及用于应用程序开发的库。

gpu 是使用 CUDA 编程的, ZCK0 是世界上唯一商业上成功的基于 C / C ++的并行编程框架。还有一组丰富的 GPU 库,用于开发使用 NVIDIA RAPIDS 软件套件的数据分析管道。数据分析管道可以是 SMO /非 RT RIC 用于更新和微调在近 RT RIC 下运行的推理模型的服务之一。

VMware 和 NVIDIA 合作伙伴关系

在 2021 年初, VMware 发布了世界上第一个符合 O-RAN 标准的近 RT RIC ,用于与选定的 RAN 和 xApp 供应商合作伙伴进行集成和测试。为了便于在其近 RT-RIC 上开发 xApp , VMware 向其 xApp 合作伙伴提供了一组打包为 SDK 的开发人员资源。

今天, VMware 和 NVIDIA 兴奋地宣布,近乎 RT 的 RIC SDK 现在使 xApp 开发人员能够在其应用程序中利用 GPU 加速。这是业界一个激动人心的里程碑。它为更大的行业打开了大门,为现代 RAN 构建 AI / ML 动力能力,包括那些基于 NVIDIA 空中 gNB 堆栈的能力。最终, VMware RIC 和 NVIDIA 空中堆栈的组合将支持新的和创新的 XAPP 的开发和货币化,以增强或扩展已部署网络的能力。

结论

开放性和智能性是 O-RAN 计划的两大核心支柱。随着 5G 的推出和 6G 研究的不断深入,无线网络的部署、优化和运行的智能将是无所不包的。

从蜂窝网络历史上采用的不透明方法转变为快速创新和新 RAN 功能上市的新时代打开了大门。 NVIDIA vRAN ( NVIDIA AIR )和 AI 技术,结合 VMware RIC ,将培育新一代无线技术,开辟新的盈利和创新机会。

 

Tags