Intermediate Technical

2025 年 4 月 10 日
NVIDIA のフルスタック ソリューションで AI 推論のパフォーマンスを最適化
NVIDIA は、AI 推論の可能性を再定義し、これまで以上に高速で、効率的かつ拡張可能なソリューションを提供するために、フルスタックのイノベーションを通じて開発者を支援しています。
2 MIN READ

2025 年 2 月 6 日
Jetson プラットフォーム サービス 2.0 の VLM ビデオ要約マイクロサービスの紹介
Jetpack 6.2 のリリースと同時にアップデート リリースされた Jetson プラットフォームサービス (Jetson Platform Services) の概要と、ハイライトの 1 つである「VLM ビデオ要約サービス」のデモをご紹介します。
6 MIN READ

2025 年 2 月 6 日
NeMo Framework と Megatron-Core の特徴や最新機能を紹介した動画コンテンツを NVOD で公開
NVIDIA は 2024 年 11 月 12 日に、大規模言語モデル (LLM)…
2 MIN READ

2025 年 2 月 4 日
NVIDIA Spectrum-X ネットワーキング プラットフォームと NVIDIA パートナーが AI ストレージを最大 48% 高速化
帯域幅が増えることで、AI ワークフローにおけるストレージに依存するステップの完了にかかる時間が短縮できるので、トレーニングにおいてはジョブの完了にかかる時間が短縮され、推論においてはトークン間の遅延が減少します。
2 MIN READ

2024 年 12 月 17 日
NVIDIA Jetson Orin Nano 開発者キットを「Super」に強化
Jetson Orin Nano 開発者キットが、最大 1.7 倍の驚異的なパフォーマンス向上と新たな価格として $249 を実現しつつ、NVIDIA Jetson Orin Nano Super 開発者キットへと名称が変更されました。
4 MIN READ

2024 年 12 月 11 日
NVIDIA AI Blueprint でカスタマー サービス向けの AI バーチャル アシスタントを作成する 3 つの構成要素
NIM と NeMo™ Retriever を活用したリファレンス アプリケーションである NVIDIA NIM™ AI Blueprint を使用して、あらゆる業界のカスタマー サービスを変革しましょう。
2 MIN READ

2024 年 11 月 22 日
Hymba ハイブリッド ヘッド アーキテクチャが小規模言語モデルのパフォーマンスを向上
Hymba 1.5B は、同様の規模である最先端のオープンソース モデルと比べ、良好なパフォーマンスを発揮し、同等のサイズの Transformer モデルで比較すると、Hymba はより高いスループットを発揮し、キャッシュを保存するために必要なメモリが 10 分の 1 で済みます。
4 MIN READ

2024 年 11 月 21 日
NVIDIA NIM でファインチューニングされた AI モデルのデプロイ
パフォーマンスを最適化した TensorRT-LLM 推論エンジンをローカルでビルドして、SFT でカスタマイズされたモデルに対する NIM マイクロサービスを迅速にデプロイする方法を説明します。
2 MIN READ

2024 年 11 月 13 日
LLM テクニックの習得: データの前処理
LLM の精度向上におけるデータ品質は重要であり、さまざまなデータ処理手法があります。NeMo Curator を利用して今すぐ課題に対処してみましょう。
2 MIN READ

2024 年 11 月 13 日
2D と 3D のデジタル ヒューマン アバターによる AI エージェント インターフェイス オプションの拡張
さまざまなユース ケースに合わせてカスタマイズすることができる、カスタマー サービス向けデジタル ヒューマンの NVIDIA AI Blueprint は、リアルなデジタル ヒューマンの作成を始めるのに最適です。
2 MIN READ

2024 年 11 月 12 日
AI-RAN が通信事業者向けに新しい AI のビジネス チャンスをもたらす
SoftBank が、NVIDIA アクセラレーション ハードウェアと NVIDIA Aerial ソフトウェアを技術基盤として活用し、神奈川県藤沢市で屋外フィールド トライアルを成功させ、AI-RAN ビジョンを現実のものにしました。
4 MIN READ

2024 年 11 月 11 日
Megatron-LM を用いた日本語に強い 172B 大規模言語モデルの開発
日本のモデル開発を促進するためのプロジェクトである GENIAC に採択された LLM-jp が、NVIDIA Megatron-LM を使用して、日本語に強い 172B オープンモデルの学習を高速化しました。
2 MIN READ

2024 年 11 月 8 日
NVIDIA TensorRT-LLM の KV Cache Early Reuseで、Time to First Token を 5 倍高速化
KV キャッシュの再利用技術と、TTFT のさらなる高速化を実現するベストプラクティスについて解説します。
2 MIN READ

2024 年 11 月 6 日
NVIDIA NeMo による最先端のマルチモーダル生成 AI モデル開発
NeMo Curator を使用した大規模なデータ処理と、Cosmos トークナイザーを使用した高品質なトークン化やビジュアル再構築を備えた、NVIDIA NeMo プラットフォームで、最先端のマルチモーダル生成 AI モデルを構築しましょう。
2 MIN READ

2024 年 10 月 31 日
NVIDIA NIM によるマルチモーダル ビジュアル AI エージェントの構築
NVIDIA NIM マイクロサービスを使用すれば、高度なビジュアル AI エージェントの構築がこれまで以上に簡単で効率的になります。
3 MIN READ

2024 年 10 月 28 日
NVIDIA GH200 Superchip が、Llama モデルとのマルチターン インタラクションの推論を 2 倍高速化
NVIDIA GH200 Grace Hopper Superchip を活用し、システム スループットを犠牲にすることなく、x86 ベースの NVIDIA H100 サーバーと比較して、Llama 3 70B モデルでマルチターンでユーザーとのやり取りする場合、TTFT を最大 2 倍に向上させる方法について解説します。
2 MIN READ