Data Center / Cloud / Edge

NVIDIA ARC-Compact を活用して、セル サイトに AI-RAN を展開

Reading Time: 4 minutes

現代の通信ネットワークの基幹を担うワイヤレス ネットワークは、何百万か所ものセル サイトを通して、世界中の数十億人の 5G ユーザーを支えています。AI-RAN がもたらす機会とメリットによって、通信ネットワークや通信エコシステムは、AI ネイティブな無線ネットワークへと進化しています。

目指すのは、スマートフォンやカメラ、ロボット、AI エージェントなど、数千億個の AI 搭載エンドポイントをつなぐインテリジェントなネットワーク ファブリックの構築です。これを実現するには、無線信号処理に AI を取り入れて潜在的な性能と効率性を高めるとともに、AI トラフィックに対応できるようセル サイトを強化し、AI 推論をユーザーのなるべく近くで実行できるようにする必要があります。

AI-RAN は、ASIC をベースとする従来の単目的型 5G/RAN 専用システムを、多目的型の商用オフザシェルフ (以下、COTS) システムへと進化させることでこれを実現します。COTS システムでは、RAN と AI のワークロード、AI for RAN アルゴリズム、さらには AI on RAN アプリケーションを同一のプラットフォーム上で実行可能です。通信事業者はこの変革によって、新たな AI サービスの提供や収益源の創出、ネットワーク効率やスペクトル効率、電力効率の改善、性能の向上など、さまざまなメリットを得られます。また、AI RAN は、仮想化 RAN (以下、vRAN) を活用した完全なソフトウェア デファインドのアプローチにより、6G 実現への確実な道筋を提供します。

AI-RAN を実用化するには、場所ごとに異なる AI と RAN の容量需要に応じて、集中型シナリオと分散型シナリオに対応する必要があります。例えば、数十か所のセル サイトから AI と 5G vRAN のワークロードを集約して処理する集中型 RAN (以下、C-RAN) は大容量システムを必要とする一方で、1 か所のセル サイトのみに展開される分散型 RAN (以下、D-RAN) は、そこまで大きな容量を必要としません。目標は、あらゆる展開シナリオに対応できる統一された高速化されたインフラ上で、いつでもどこでも利用できる 5G vRAN ソフトウェアを展開することです。これにより、AI-RAN のメリットを最大限に引き出しつつ、シンプルな運用と管理を実現できます。

NVIDIA AI Aerial は、AI 中心のシナリオに最適化された NVIDIA Grace Hopper や NVIDIA Grace Blackwell ベースの Aerial RAN Computer システムを活用して、高密度な AI-RAN の展開を推進します。

新製品の NVIDIA Compact Aerial RAN Computer (ARC-Compact) は、これらの機能をエッジにまで拡張することで、スペースや電力に制限があり、RAN 中心のワークロードが大部分を占める個々のセル サイトでも AI-RAN を実現します。そのため、集中型と分散型の両方の AI-RAN に対応できます。

セル サイト向けの省電力 AI-RAN ソリューション、NVIDIA ARC-Compact

ARC-Compact は、分散型 AI-RAN 展開シナリオを実現できるように設計されています。優れた電力効率、GPU アクセラレーテッド無線処理、高性能な vRAN を組み合わせ、Arm エコシステムを活用することで、セル サイトを 5G と AI の多機能ハブへと進化させます。規格要件を満たしながら最適なセル容量を提供することで、限られたスペースや電力といったセル サイト特有の制約にも対応します。

ARC-Compact は、C-RAN と D-RAN の両方で同じソフトウェアデファインドのコードベースに対応しており、「6G へのアップグレードが可能なソフトウェア」という第一原則に従っています。高性能かつ省電力な 72 個の Arm Neoverse V2 コアを備えた NVIDIA Grace CPU C1 を活用して構築され、無線処理や AI ワークロードの高速化には、NVIDIA L4 Tensor コア GPU を搭載した PCIe プラグイン カードを活用します。NVIDIA ConnectX-7 ネットワーク インターフェイス カード (NIC) により、高速イーサネット接続も可能です。

ARC-Compact は、NVIDIA の社内ベンチマークに基づく分散型 AI-RAN の主要要件を満たしています (表 1 参照)。

要件ARC-Compact の利点
電力効率• 現在の従来型ベースバンド システムと同等の Gbps/Watt
• 省電力な 72W の L4 GPU と電力効率の高い ARM CPU を活用して、一般的なセル サイトの電力枠内に収まる総消費電力を実現
5G vRAN の性能• TDD と FDD、4TR の標準 MIMO と 64TR の Massive MIMO の組み合わせに対応
• 最大 30 のセクター キャリア、25 Gbps のシステム スループットに対応
• O-RAN 7-2 および 7-3 RU 分割に対応
• インライン方式とルックアサイド方式両方の Layer 1 機能に対応
• 組み込まれた NVIDIA CUDA-Accelerated RAN アルゴリズム (cuPHY, cuMAC) によるスペクトル効率と性能の向上
AI 処理• ニューラル ネットワーク、NVIDIA GPU でのサイト固有の高速学習を含む、高度な AI モデルと AI for RAN のイノベーション
• ビデオの検索と要約、サイバーセキュリティ、コンピューター ビジョン、LLM 推論などの AI アプリケーション向けの NVIDIA GPU のアドオン オプション
環境要件• 2RU の高さ、17 インチの半分の奥行きでセル サイトのキャビネットに最適なサイズ
• +55 °C ~ -5 °C の動作温度範囲に対応
• US NEBS3 および European GR-63/1089-CORE に準拠
ソフトウェアのアップグレード• 完全なソフトウェア定義で 6G にアップグレード可能
表 1. ARC-Compact は分散型 AI-RAN の主要要件を満たす

ARC-Compact の導入と提供開始時期

  • ARC-Compact は、NVIDIA が Grace CPU C1 ベースのシステム開発で協力している Foxconn、Lanner、Quanta Cloud Technology、Supermicro などの OEM および ODM パートナーを通じて提供される予定です。通信業者の分散型 AI-RAN ユース ケースに対応したさまざまな構成の製品が今年中に提供される予定です。
  • T-Mobile 主催のキャピタル マーケット デーで発表された AI-RAN イノベーション センターとの共同パートナーシップを通して、分散型 AI-RAN の展開に向けた NVIDIA ARC-Compact ソリューションの開発に役立つ多くの知見を獲得しました。この新しいソリューションは、D-RAN リファレンス アーキテクチャとして、AI-RAN に関する連携の次フェーズに向けたインプット (設計基盤) として利用される予定です。
  • Vodafone は、NVIDIA と協働しながら、分散型 AI-RAN 向け ARM ベースの NVIDIA ARC-Compact ソリューションを評価しています。この評価は、エッジ最適化ショートデプス サーバー上で、性能と効率の高い分散コンピューティングを実現するという、同社の OpenRAN に関する大きな目的に沿って行われています。
  • Nokia は、アーリー アクセス プログラムの一環として NVIDIA ARC-Compact のシード システムを利用し、同社の 5G Cloud RAN ソフトウェアの初期ベンチマーク テストを実施しています。この検証により、ARC-Compact が分散型 RAN の展開シナリオに適していることが示され、Nokia と NVIDIA の間で進行中の AI-RAN に関する連携もさらに深まっています。
  • Samsung も、NVIDIA との AI-RAN に関する連携を強化し、分散型 AI-RAN ソリューションに向けて NVIDIA ARC-Compact と同社の 5G vRAN の統合を進めています。Samsung はすでに、自社の vRAN ソフトウェアと NVIDIA L4 GPU のシームレスな統合を検証する概念実証 (PoC) を完了し、昨年にはネットワーク性能と効率の向上を実証しました。現在は、自社の vRAN ソフトウェアと NVIDIA Grace C1 および NVIDIA L4 Tensor Core GPU を組み合わせた構成で、追加の AI ワークロード (AI/ML アルゴリズムを含む) の高速化に向けた評価を進めており、性能と効率のさらなる向上を目指しています。

NVIDIA は、AI Aerial ポートフォリオを強みに AI-RAN ソリューションの先駆的な役割を果たしてきました。Indosat Ooredoo Hutchison、ソフトバンク、T-Mobile といったお客様や、Capgemini、富士通、京セラ、SynaXG をはじめとするソリューション パートナーとの AI-RAN プロジェクトでは、既存の Aerial RAN Computer システムがすでに導入されています。ARC-Compact が加わったことで、高密度と低密度の両方のシステムを提供できるようになり、AI セントリック、RAN セントリック、さらには AI 専用、RAN 専用のモードにも対応できるようになりました。そのため、集中型と分散型の両方の AI-RAN 展開シナリオにおいて、通信事業者が AI-RAN ネットワークを構築する際の重要な要件であるソフトウェアとハードウェアの一貫したアーキテクチャを実現できます。

ARC-Compact の主な構成要素

図 1. NVIDIA AI Aerial リファレンス アーキテクチャの一部としての NVIDIA Compact Aerial RAN Computer

ARC-Compact は、以下のハードウェアとソフトウェアのコンポーネントを活用して 5G vRAN と AI ワークロードの処理を効率よく行えるよう設計されています。

NVIDIA Grace CPU

NVIDIA Grace CPU は、AI、vRAN、クラウド、エッジ、高性能コンピューティング アプリケーションを実行する現代のデータ センター向けに設計されています。電力効率は、現在の主要サーバー プロセッサの 2 倍です。Arm エコシステムとの完全な互換性を備え、Arm 用に設計されたデータ センターのあらゆるアプリケーションを Grace 上でシームレスに実行できます。その逆も同様です。そのため、通信事業者は vRAN の展開において求められるサプライヤーの多様性を確保できます。

NVIDIA L4 Tensor コア GPU

L4 Tensor コア GPU の PCIe プラグイン カードは、高スループットかつ低レイテンシの AI ワークロードや RAN アクセラレーションのためのコスト効率と電力効率に優れたソリューションを提供します。FP8 Tensor コア に対応し、24GB の GPU メモリを搭載することで、485 テラの FLOPS 性能を実現します。ビデオ検索や要約、視覚言語モデル (VLM) などのエッジ AI ワークロードに加え、無線の Layer 1 や、スケジューリングなどの一部の Layer 2 機能にも適しています。L4 は、CPU ベースのソリューションの 120 倍に上る AI 動画性能を提供し、72W の TDP 低電力エンベロープで動作するロープロファイル規格を採用しています。

NVIDIA ConnectX-7

NVIDIA ConnectX-7 は、高速かつ低レイテンシのイーサネット接続を提供し、フロントホール、ミッドホール、バックホールのすべてに対応します。また、AI トラフィックのルーティングや高度なオフロードも可能です。最大 4 つの接続ポートと、合計最大 400 Gbps のスループットを実現し、通信事業者向けに、ハードウェア アクセラレーションによるネットワーク、ストレージ、セキュリティ、運用管理サービスをデータ センター規模で提供します。これには、Transport Layer Security (TLS)、IP Security (IPsec)、MAC Security (MACsec) 向けの インライン型のハードウェア アクセラレーションなどの機能が含まれます。

ソフトウェア アーキテクチャ

ARC-Compact は、Aerial CUDA accelerated RAN ソフトウェアの実装により、CPU と GPU の両方を活用して 5G vRAN を実現します。表 2 は、ARC-Compact が対応しているさまざまな RAN 機能や AI ワークロードで使用される処理機能を示しています。

ワークロードGrace CPU C1L4 GPU
RAN および CNF• FDD Layer 1
• TDD および FDD Layer 2 +
• 分散型 UPF
• RIC アプリケーション
• 標準 MIMO および Massive MIMO 向けの TDD Layer 1
• L1 およびアクセラレーテッド スケジュラーなどの一部の L2 機能 (cuMAC, cuPHY) に組み込まれた AI/ML アルゴリズム
AI非該当• チャネル推定のためのニューラル ネットワークなどの高度 AI モデル
• LLM、VLM 推論、動画検索と要約、サイバーセキュリティ、スマート シティ/ IOT AI アプリ、コンピューター ビジョンなど
• RIC アプリケーション
表 2. ARC-Compact が対応している RAN 機能や AI ワークロードで使用される処理機能

通信事業者が得られる主なメリット

セル サイトでの分散型 AI-RAN の展開を検討している通信事業者にとって、NVIDIA ARC-Compact は、高性能な 5G と AI 推論を提供する、低電力かつ経済的でコンパクトなソリューションです。主なメリットは以下の通りです。

  • 電力効率の高いセル サイト向けソリューション: ARC-Compact は、低電力エンベロープでも高性能な 5G vRAN と AI ワークロードの両方を提供し、持続可能で費用対効果の高い分散型 AI-RAN の展開を実現します。
  • AI による無線信号処理とエッジのイノベーション: PCIe プラグイン L4 GPU を統合することで、無線信号処理のための高度な AI/ML アルゴリズムを実現し、スペクトル効率とネットワーク利用率を高めるとともに、AI を活用した新しいサービスをエッジで提供できるようになります。
  • ARM エコシステムを活用した柔軟性と多様性: Arm コアを備えた NVIDIA Grace C1 CPU を基盤とすることで、拡大する Arm エコシステムの恩恵を受けられるだけでなく、vRAN ソリューションのサプライヤー基盤を多様化できます。
  • 統一されたソフトウェアデファインドの vRAN をすべての展開で採用: ARC-Compact は、集中型 AI-RAN サイトと同じ 5G vRAN ソフトウェアを実行し、将来的に簡単に 6G へアップグレードできる、統一された完全ソフトウェア デファインドのネットワークを実現します。また、どのような展開シナリオにおいても簡単に管理できます。
  • セル サイトの実際の要件に合わせて最適化: コンパクトな規格、広範な温度への対応、国際通信基準への準拠により、単一プラットフォームのエッジでの AI-RAN 展開に合わせた設計となっています。

本システムは、以下のようなさまざまな AI-RAN ユース ケースに合わせて柔軟に構成可能です。

  • RAN セントリックまたは RAN 専用: 大多数の分散型展開で想定される主なユースケースであり、Grace C1 CPU と L4 GPU をそれぞれ 1 つずつ使用します。
  • AI セントリック: 主に RAN には Grace CPU (FDD など) を使用し、L4 GPU を AI または 視覚処理アプリケーションに割り当てます。
  • RAN および AI セントリック: 追加の L4 GPU を AI または視覚処理に割り当てつつ、負荷の高い RAN ワークロードには単一の C1 と L4 を併用して対応します。

結論: AI-RAN の促進要素

図 2. AI ネイティブなワイヤレス ネットワークのための NVIDIA AI Aerial ポートフォリオ

NVIDIA は 2024 年に「Aerial RAN Computer-1」を発表し、外部のフィールド トライアルを通して、さまざまなメリット (CAPEX 1 ドルあたりの収益が 5 倍に増加、最高水準の ASIC システムと比べて電力効率が 40 %向上、容量の利用効率が 3 倍改善など) を実証しました。この発表は、AI-RAN 技術とそのエコシステムにとって転機となり、多くのお客様やパートナー企業が自社の AI-RAN 導入目標の達成に向けて取り組みを開始しました。

NVIDIA ARC-Compact は、AI-RAN の導入を進める上での次なる一手です。NVIDIA ARC-Compact があれば、高性能で電力効率に優れ、柔軟な AI-RAN ソリューションをあらゆるセル サイトで展開できます。Aerial RAN Computer-1 と組み合わせることで、ARC-Compact は AI-RAN のビルディング ブロックをフルスタック プラットフォームでさらに強化します。これにより、スケーラブルなハードウェア、共通のソフトウェア、そしてオープン アーキテクチャを実現し、エコシステム パートナーと共に、あらゆる展開シナリオに対応した高性能な AI-RAN を提供します。

また、AI-RAN のトレーニング、シミュレーション、展開を担う 3 つのコンピューター システムを含む充実した AI Aerial ポートフォリオも利用できます。例えば、NVIDIA Aerial CUDA-Accelerated RAN ソフトウェアは、Aerial Omniverse デジタル ツインと実際の Aerial RAN Computer の両方に同じバージョンが実装されているため、新しい AI モデルを現場に展開する前に、その性能を予測可能な方法でシミュレーションし、データ ループを通じて継続的にモデルを調整できます。

業界全体が AI ネイティブなワイヤレス ネットワークへのシフトを加速する中、NVIDIA AI Aerial は分散型インテリジェンスという新時代の技術基盤を提供し、これまでにない効率性、イノベーション、そして価値をワイヤレス環境にもたらします。

詳しい情報は、NVIDIA GTC 2025 で開催された通信業界のリーダーによるパネル ディスカッション「AI-RAN の実践」をご覧ください。


関連情報


翻訳に関する免責事項

この記事は、「Deploy AI-RAN at Cell Sites with NVIDIA ARC-Compact」の抄訳で、お客様の利便性のために機械翻訳によって翻訳されたものです。NVIDIA では、翻訳の正確さを期すために注意を払っておりますが、翻訳の正確性については保証いたしません。翻訳された記事の内容の正確性に関して疑問が生じた場合は、原典である英語の記事を参照してください。

Tags