Data Center / Cloud / Edge

NVIDIA が、NVIDIA DGX SuperPOD でかつてない速さで AI ファクトリーの構築を支援

Reading Time: 2 minutes

日本国内の非公開の場所にある巨大な部屋で、デジタル革命が起こっています。サーバー ラックが巨人のように立ち並び、その洗練されたフレームは無限の可能性を秘めた数千本のケーブルによって接続されています。

昨年まで、この広大な AI ファクトリーは存在していませんでした。この施設は今、先進的なインフラを活用して進歩を推進し、AI と共存する社会の創造に根ざした、ソフトバンクの AI を活用したイノベーションのビジョンを支える体制を整えています。

ソフトバンクにとって、導入を短縮することは単なる技術的な勝利を意味するものではありません。それは様々な競争優位性をもたらします。AI スーパーコンピューティングの目まぐるしい世界では、スピードがすべてです。

日本を代表するテクノロジ企業の 1 社であるソフトバンクは、NVIDIA と提携してこのシステムを実現しました。両社は共同で世界的に最新鋭なコンピューティング クラスター 2 基を構築しました。これらのクラスターは記録的な速度で膨大な量のデータを処理し、ソフトバンクの子会社である SB Intuitions が開発する大規模言語モデル (LLM) の開発を推進させる体制を整えています。

しかし、AI ファクトリーの構築は単にハードウェアを接続するだけの作業ではありません。すべてのケーブル、接続、コンポーネントが完璧に整合しなければならない、綿密に計画された取り組みなのです。

そこで、NVIDIA Infrastructure Specialists (NVIS) の出番です。NVIS は、精度と効率性をもって AI の導入を加速する専門家で構成されたチームです。NVIS は実績のある戦略を用いて、お客様がベアメタルを本番環境で稼働可能な AI インフラへと記録的な速さで実現するのを支援します。

コラボレーションによるスピードアップ

ソフトバンクが導入スケジュールの前倒しを要請してきた際、NVIDIA は野心的な目標を現実に変えるための支援をする準備ができていました。ソフトバンクの大規模 AI プラットフォームに関する経験は限られていましたが、同社の機敏性と NVIDIA の専門知識およびリファレンス アーキテクチャが組み合わさることで実現が保証されました。

ソフトバンクの NVIDIA DGX SuperPOD 導入は綿密に計画され実行されました。すべてのステップがマイルストーンとタイムラインにマッピングされ、プロジェクトはペース管理のために 2 つのクラスターに分割されました。

ソフトバンクが当初の運用開始予定日より 10 日早い完成を要請した際、NVIS は新しい期限に合わせて調整を行いました。このような機敏な対応には、慎重なリソース管理、綿密な物流計画、そして日々の調整が必要でした。

数字がその成果を物語っています。数千本のケーブルや数百台ものネットワーク スイッチが、DGX SuperPOD の中核となる強力なコンピューティング ノードである 510 台の NVIDIA DGX B200 システムを接続しています。どちらのクラスターも、FP64 の精度において並外れたパフォーマンスを発揮しました。一方は 89.78 GFLOPS、もう一方は 91.94 GFLOPS を誇ります。これらは 1 秒間に処理できる膨大なデータ量を示す指標です。

「これらの DGX SuperPOD クラスター全体に 510 台の NVIDIA DGX システムを導入する精度とスピードは、専門知識とコラボレーションが合致した時に何が可能になるかを示しています」と、ソフトバンクの次世代技術開発本部 執行役員本部長である丹波 廣寅 氏は述べています。「このインフラは単に高速なだけでなく、日本の AI 開発における新たな基準を確立しています。」

日本最大の AI コンピューティング インフラを擁することで、ソフトバンクは日本の AI エコシステムにおけるリーダーとしての地位を確固たるものにしています。

正確さと機敏性で課題を克服

もちろん、これほどの規模のプロジェクトが障害なしに進行することはありません。ソフトバンクの場合、電力供給の制約により、NVIS は一部のテストを営業時間外に実施する必要がありました。ネットワーク コンポーネントが原因で接続性の問題が発生した際、チームは創造的な解決策を見つけ、第 2 クラスターの部品を転用して第 1 クラスターをスケジュール通りに稼働させました。

NVIDIA チームは、すべての課題をリアルタイムで綿密に追跡し解決することで、スケジュール通りの導入を確保しました。

「これは単なる仕事ではありませんでした」と、チーム メンバーは語っています。「それはまるで F1 のピットクルーのようで、全員が息を合わせて作業し、私たち 1 人ひとりが日々節約することがソフトバンクにとってより大きな価値を意味することを理解していました」

日本の AI の未来を切り拓く

ソフトバンクの導入は技術的な成果以上の意味を持ちます。これは次世代の社会インフラ構築に向けた一歩であり、LLM 開発などの社内プロジェクトを加速し、日本全国の生成 AI 開発者によるより広範なエコシステムを実現するために不可欠なものです。

稼働開始後、このプラットフォームは外部企業にもサービスを提供し、日本国内の AI 能力開発に貢献することになります。

「ソフトバンクの AI ファクトリーは日本にとって飛躍的な前進であり、イノベーションを加速し、日本の AI エコシステムの繁栄を後押しします」と丹波氏は述べています。

NVIS の戦略: スピード、正確さ、コラボレーション

ソフトバンクの導入は、大規模な AI プロジェクトを迅速かつ綿密に管理するために合理化されたアプローチである NVIS の戦略を実証しています。NVIS により、NVIDIA は日々数千基もの GPU を設置でき、巨大な AI センターを効率的な AI ファクトリーへと変貌させることができます。

ソフトバンクの DGX SuperPOD の中核には、ボトルネックなしに膨大なデータ負荷を処理するように設計された NVIDIA Quantum-2 InfiniBand ネットワーキング プラットフォームがあります。 このネットワーク技術は、導入前のテストと検証を可能にするデータ センターの仮想レプリカである NVIDIA Air のデジタル ツイン機能と組み合わされることで、プロジェクトが計画から実行まで円滑に行われました。

CEO の計算: スピードが重要な理由

NVIDIA の技術を採用する企業にとって、スピードは単に技術的なものではなく、戦略的なものです。新しい AI ファクトリーの稼働が早ければ早いほど、インサイトの獲得、業務の合理化、AI を活用した新たな製品の投入をより迅速に行うことができます。

NVIDIA の社内分析では、一般的には 6 か月以上かかる設置時間をわずか 3 週間に短縮することができれば、大規模 AI システムの導入に伴うダウンタイムの長期化に起因するコストを最大 1 億 5,000 万ドル削減することが可能であることが示されています。これは、8,000 基の GPU を搭載した 1,000 台のサーバーを有するデータ センターの場合、NVIDIA が 1 日あたり約 100 万ドルと計算する大規模導入の運用コストに基づいて試算されています。

より迅速な導入により、お客様は LLM などのワークロードを遅延なく実行することで、より早期に収益を生み出すことも可能になります。NVIS によって解放される運用の 1 日 1 日が、100 万ドルの費用発生の回避と、ダウンタイムにより失われかもしれない収益機会の獲得を意味します。

DGX SuperPOD でより素早い構築を

NVIDIA Infrastructure Specialists (NVIS) により DGX SuperPOD の導入を加速し、最初のトレーニングまでにかかる時間を通常の数分の一に短縮します。詳細については、AI Infrastructure Services | NVIDIA NVIS をご覧ください。


関連情報


翻訳に関する免責事項

この記事は、「NVIDIA Helps Build AI Factories Faster Than Ever with NVIDIA DGX SuperPOD」の抄訳で、お客様の利便性のために機械翻訳によって翻訳されたものです。NVIDIA では、翻訳の正確さを期すために注意を払っておりますが、翻訳の正確性については保証いたしません。翻訳された記事の内容の正確性に関して疑問が生じた場合は、原典である英語の記事を参照してください。

Tags