新しいツールキットの使い方を学ぶ一番最良の方法は、実際に手を動かし何かを作ってみる事です。2025 年秋、日本初の NVIDIA NIM™ を含めた NVIDIA の生成 AI ソフトウェアを題材にしたハッカソンを、グローバル システム インテグレーター (Global System Integrator 以下、GSI) の開発者に向けて開催しました。NVIDIA NIM は、AI モデルの面倒な本番環境構築を不要にする、最適化されたコンテナー サービスであり、開発時間が劇的に短縮されます。
Open Hackathons、GMOインターネット、マクニカ、NVIDIA の 4 社で共催されたハッカソンは、2 週間という短期間に NVIDIA のエキスパートに相談しながら、実案件に活かせる技術要素を開発しました。
参加した GSI 各社は、マッキンゼー・アンド・カンパニー・ジャパン様、FPT 様、日本タタ・コンサルタンシー・サービシズ様、日本IBM 様、デロイト トーマツ様、そして共催社であるマクニカ様の 6 企業 (順不同) の開発者の方々です。
この技術ブログでは、参加企業で作成された NIM の特徴を捉えた 5 社の成果物をご紹介します。
バーチャル パワー プラント (VPP) 運用計画策定エージェント
マッキンゼー・アンド・カンパニー・ジャパンのチーム BIG MAC は複数の LLM NIM と NVIDIA NeMo Agent Toolkit を用いて、高速かつオブザーバビリティに優れた VPP 運用計画策定エージェントを開発しました。
グリッド オペレーターとは電力系統の運用と調整をリアルタイムで行う事業者や担当者の事で、電力の安定的な供給を確保する為に VPP の運用計画の策定を担当しています。運用計画の策定は電力取引所からの価格シグナルの変化、VPP サービス契約状況、エネルギー リソースの制限など様々な変化に迅速かつ効率的に対応する必要があります。グリッド オペレーターは、その状況変化の速さに日々苦労しながら運用計画を行っています。

チーム BIG MAC は、これらの複雑な VPP 運用計画の策定を支援するエージェントを開発しました。本エージェントは、LangGraph および NeMo Agent Toolkit を用いて開発されており 、NeMo Agent Toolkit と Phoenix を用いて処理のトレーシングを行うことでオブザーバビリティを確保しています。また、NVIDIA NIM でサーブされた LLM から複数のツールを呼び出すことで、高速かつ高度な処理を実現しました。
本エージェントは以下のツールを組み合わせることで、高度な VPP 運用計画策定を実現しています。
- 契約の要約やプランの拡充を担当する収集ツール
- 最適なプランを選択する為の推論ツール
- 出力の拡充とフォーマットの成形を行うレポート ツール
- プランの詳細説明を行う説明ツール
図 2 はハッカソン最終日に行われたエージェントのデモ画面です。VPP 運用計画策定に関係する情報と共に、複雑な最適化の結果選択された運用プランの概要やそのプランが選ばれた理由などが分かりやすく説明されています。これらの情報によりグリッド オペレーターは迅速に運用プランを理解し、運用プラン決定を行う事が可能になります。

チーム BIG MAC は、将来的に NVIDIA RAPIDS や PyTorch を用いた電力需要予測機能をエージェントに追加する事も次のステップとして考えています。これにより、現在は静的な仮定に基づき作成しているプランを実際の負荷予測に基づいて作成することが可能となり、さらにはエージェントの VPP 運用計画の精度をより高める事が実現できるようになります。
産業機器状態管理および障害支援エージェント
FPT の FPT ISSO チームは、複数の LLM NIM、TTS (Text-To-Speech) NIM を組み合わせてリアルタイム性の高い産業機器状態管理および障害支援エージェントを開発しました。
重機等の産業機器は、オイルの温度、グリス残量、発生したエラー コードなど産業機器の状態を表すテレマティクス データを一定間隔で送信しており、メーカー側のシステムでそれらを可視化し場合によってはアラートを上げるなどして人間が状態を監視しています。
産業機器で障害が発生した際には、システムで可視化された情報を確認し、不具合を調査、切り分けを行いお客様への連絡や修理対応を行うのが一般的です。しかしこれらのトラブルシューティングには熟練者のノウハウが必要だったり、場合によっては夜間対応が必要など様々な課題が存在します。

FPT ISSO チームは、これらの今まで人手で実現していたフローのエージェントによる自動化に挑戦しました。エージェントの主な機能は以下の通りです。
- テレマティクス データの情報およびノウハウや交換パーツ情報データベースの情報を基に LLM NIM による産業機器の状態理解をリアルタイムで実施
- 産業機器の状態異常時には、修理対応指示文を生成、TTS NIM を用いて生成されたテキストを音声 (wav) に変換、異常時の対応や状態を記録する為のレポートを作成
産業機器からリアルタイムに送信されるテレマティクス データは膨大ですが、オープン ウェイト (= 重みが公開されているモデル) の高度なリーズニング モデルと NVIDIA NIM の高速な推論処理を組み合わせる事でリアルタイムかつ高度な状況理解に対応しました。
また将来的には異常時にリアルタイムで機器の状態説明や対応の読み上げへの対応を視野に入れている為、今回は TTS NIM を用いて生成したテキストの wav ファイルへの変換機能もパイプラインに組み込まれています。

このエージェントの運用が実現されれば、今までより障害発生時のリード タイムも大幅に短縮され、非熟練者であっても障害対応できる可能性があります。
NVIDIA NIM と合成データで実現するドメイン特化 RAG の検索精度を高める Reranker アプローチ
日本タタ・コンサルタンシ―・サービシズの TCSJ AI LabW チームは LLM と連携が可能な NeMo Data Designer を用いてドメイン特化の合成データを生成しました。このデータを用いて Reranker モデルをファインチューニング (FT) し、ドメイン特化させたリランキング システムと RAG パイプラインを構築しました。
RAG を企業内で活用し、社内固有の専門用語や略称に対応した、高い検索精度を実現するためには、初期検索で得られた結果をドメイン特化の観点から最適に並べ替える Reranker (リランキング モデル) の FT が不可欠となります。しかし、この FT に必要なドメイン固有のデータセット作成する労力こそが、従来の開発における最大のネックでした。
TCSJ AI LabW チームはこの問題を解決するため、NeMo Data Designer を使って少量の社内データから質の良いデータ合成を効率的に生成し、これを使ってリランキング モデルを FT するシステムを開発しました (図 5)。開発では、保険業界を題材に 100 件程度のダミー自社商品データを用意し、そこから NeMo Data Designer を用いて FT 用のデータセットを作成しました。データセットは リランキング モデルの関連度の学習に使えるように自社製品に対して有効 (ポジティブ) なデータと誤りや架空の情報を含むネガティブなデータを含んでいます。学習された リランキング モデルは学習前と比べて リランキング性能の precision が大きく改善しました。

図 6 は、ファインチューニングしたモデルの改善効果についてのデモ結果です。略称を用いた商品名 (ド守プ) による検索リクエストに対して、右側の学習モデルの方が関連する商品 (ドライブ守護神プラス) の検索結果をより上位に返すことがわかりました。

この取り組みにより、自社固有もしくは特定のドメインに関する RAG の検索精度改善を、データ合成によって効率的におこなえることが期待されます。データ合成のフレームワークである NeMo Data Designer の利用と、その裏側で LLM を高スループットで動かす NIM と連結することで強力な手法となり得ます。具体的には、生成データを pandas などで扱いやすい形式で出力できることや、 例えば商品名を生成した後に、商品に関する説明を生成すといった多段の生成を一度に行なってくれることが大きなメリットです。
TCSJ AI LabW チームは、将来的にデータ生成のスループットの改善や学習モデルの汎化性能の改善を今後の開発計画に挙げており、体系的な評価と合わせてより現実的な状況でのシステムの運用を計画しています。
自然言語による高速データ分析およびレポーティング エージェント
日本IBM の IBM AI Agent Dept チームは NVIDIA NIM、RAPIDS (cuDF, cuML) および LangFlow を用いて、GPU コンピューティング機能を搭載した汎用的なデータ分析システムを開発しました。
データ サイエンス (DS) のプロセスはデータに大きく依存しており、データの分析だけでなくデータの処理にもプロセスの進行や結果が大きく左右されます。DS をビジネスに適用する中で、データ処理のパイプラインや基礎分析に時間がかかってしまうため、モデルの構築や本質的な分析作業に時間が充てられないことが課題でした。
IBM AI Agent Dept チームはこの課題に対応するために、実ビジネスの大量データに対応できるスケールでデータの前処理と基礎分析部分を自動化する AI システムを開発しました。図 7 のように分析処理のシステムを 1/ コード生成、2/ コード実行 (GPU コンピューティングを利用)、3/ 分析結果のレポートの三段階に分けたパイプラインを LangFlow で構築しました。システムの入力にユーザからの指示と表形式のデータを入力すると、AI はユーザの指示とデータの形式を読み取り、LLM NIM を用いて実際のデータ形式に合うように分析コードを生成します。生成されたコードはシステム内で自動的にレビューされた後に GPU コンピューティングを用いたデータ分析用ライブラリである RAPIDS (cuDF, cuML) を用いて実行されます。最終的に実行結果は AI に渡され実行結果の要点、示唆、次のアクションについてまとめたレポートが生成されます。

図 8 は、開発されたシステムのデモ画像です。与えられたデータに対して変数間の相関係数を計算し上位 10 項目を出力するようリクエストするとシステム内部で分析コードが生成され実行され結果が表示されます。生成された分析用のコードは、RAPIDS (cuDF, cuML) による GPU を用いたデータ分析に対応しており、大量のデータに対する分析の場合でも高速に結果を返すことが可能です。また実行結果をテキストや表で返すだけでなく、結果を元にグラフを作成し可視化した状態でユーザーにわかりやすく提示する機能も実装されています。

この取り組みにより、特に分析初期フェーズにおける汎用的な要求に答えることができます。具体的には、データ分析のパイプライン構築を自動化し、インタラクティブな探索的データ分析 (EDA) が可能になります。また分析結果を AI が解析してくれるため、分析者のスキルセットを補完したり分析者が見落としていた気付きを与えることもできます。
IBM AI Agent Dept チームはさらに、実ビジネスに適したシステムの構築を計画しています。LLM のローカル デプロイにかかる手間を最小限にし、コアロジックの実装に集中できることは NIM の大きなメリットであり、RAPIDS による GPU 活用や LangFlow と NIM のインテグレーションをさらに強化していく計画です。
NVIDIA NIM と Omniverse を活用したマルチモーダル 3D アセット生成
マクニカの Team Macnica-tane-penguins は、デジタル ツイン開発における最大の課題の 1 つである 3D アセット不足の解消をテーマに、NVIDIA NIM を中核とした高速なマルチモーダル生成パイプラインを構築しました。産業 DX の現場では大量の設備、備品、空間を正確に再現するために膨大な 3D モデルが必要となりますが、従来のモデリング作業は専門スキルと時間を要し、プロジェクト全体のスピードを大きく制限していました。本プロジェクトでは、生成 AI をエージェントで連携させることで、この作業を大幅に自動化するアプローチを提示しています。
チームが構築したエージェントは、入力されたテキストから LLM により必要なオブジェクトを自動抽出し、TRELLIS や FLUX、Stable Diffusion 3.5 などを利用して複数視点の画像を生成し、その情報をもとに Omniverse Kit 上で USD アセットとして再構成します。NIM はこれら複数モデルの推論とデータフローを統合的に管理し、短時間で安定したパイプラインを実現します。また Cosmos Predict を組み合わせることで、生成されたアセットをシーンへ配置したり、将来的には合成データ生成にも発展させることができます。

このワークフローにより、従来は数時間から数日かかっていた 3D アセット生成を、わずか数十秒から数分に短縮できることが確認されました。生成 AI の出力をそのまま Omniverse で利用できる形に変換し、シミュレーションに直結するという一連の流れは、産業向けデジタル ツインに求められる高速な反復開発を実現します。今回の取り組みは、NIM や NeMo Agent Toolkit はもちろん、Omniverse や Cosmos といった NVIDIA の製品群を組み合わせることで、フィジカル AI およびデジタル ツイン領域で実用性のあるシステム構築が十分に可能であることを明確に示しました。

まとめ
ご覧の通り、数々の魅力的な制作物が短期間で作成されました。NVIDIA NIM を活用することでローカル環境での LLM や基盤モデルのホストという手間のかかる作業を最小化し、本来開発したいコア ロジック、さらにはその背後にあるビジネスのコア バリューの構築にフォーカスできることが NVIDIA NIM の最大のメリットです。
今回のハッカソンの計算環境につきましては、GMO インターネット様より各開発チームに NVIDIA H100 GPU 搭載のノードが 2 台提供されました。この場を借りて GMO インターネット様には改めて感謝申し上げます。
各チームは openai/gpt-oss-120b など、最新のオープン モデルを H100 上で実行し、マルチノード、マルチ GPU の性能をフルに発揮した開発を行うことができました。
ご注意: openai/gpt-oss-120b をホストする場合は、NIM のデプロイ時に環境変数を NIM_KVCACHE_PERCINT=0.95 と指定いただくことで H100 1 台 (80GB RAM) でデプロイし高速に推論することが可能になります。
NVIDIA NIM は常に進化を続けており、数々のアップデートが行なわれています。NVIDIA の Developer サイトを中心に情報発信をしておりますので、この機会にご覧ください。
関連情報
そして現在、NVIDIA は NVIDIA Nemotron™ を積極的にご紹介しています。Nemotoron は NVIDIA が開発した高性能なオープンウェイト AI モデル ファミリです。NIM を使って本番環境にデプロイすることを前提としており、特に自律的な AI エージェントの構築に特化しています。
- 役割: AI エージェントに、複雑なタスクをこなすための高度な推論能力と正確な理解力を提供
- 最大のメリット: NIM と組み合わせることで、モデルの性能を最大限に引き出しながら、企業内やクラウドで安全かつスケーラブルに、AI エージェントを迅速に展開
つまり、Nemotron は「エージェントの頭脳」であり、NIM は「その頭脳を動かすための最適なエンジン」なのです。NIM 化されたモデルや NVIDIA のエージェントのリファレンス実装群である NVIDIA Blueprints を体験できるサイトを準備しています。是非、Nemotron をお試しください。
最後に、NVIDIA は、AI やディープラーニング、ロボティクス、メタバースなど、未来のコンピューティングを定義しています。GPU のポテンシャルを最大限に引き出し、スケールの常識を塗り替えるデベロッパーを常に募集しています。Developer Program にご興味のある方は、こちらをご覧ください。そして是非この機会に NVIDIA の Developer にご登録ください。