Deep dive
2024 年 11 月 22 日
Hymba ハイブリッド ヘッド アーキテクチャが小規模言語モデルのパフォーマンスを向上
Hymba 1.5B は、同様の規模である最先端のオープンソース モデルと比べ、良好なパフォーマンスを発揮し、同等のサイズの Transformer モデルで比較すると、Hymba はより高いスループットを発揮し、キャッシュを保存するために必要なメモリが 10 分の 1 で済みます。
4 MIN READ
2024 年 11 月 13 日
LLM テクニックの習得: データの前処理
LLM の精度向上におけるデータ品質は重要であり、さまざまなデータ処理手法があります。NeMo Curator を利用して今すぐ課題に対処してみましょう。
2 MIN READ
2024 年 11 月 11 日
Megatron-LM を用いた日本語に強い 172B 大規模言語モデルの開発
日本のモデル開発を促進するためのプロジェクトである GENIAC に採択された LLM-jp が、NVIDIA Megatron-LM を使用して、日本語に強い 172B オープンモデルの学習を高速化しました。
2 MIN READ
2024 年 10 月 31 日
NVIDIA NIM によるマルチモーダル ビジュアル AI エージェントの構築
NVIDIA NIM マイクロサービスを使用すれば、高度なビジュアル AI エージェントの構築がこれまで以上に簡単で効率的になります。
3 MIN READ
2024 年 10 月 8 日
NVIDIA cuOpt で大規模な線形計画問題を加速する
NVIDIA cuOpt は現在、GPU アクセラレーションで PDLP を実装しています。最先端のアルゴリズム、NVIDIA ハードウェア、専用の CUDA 機能、NVIDIA GPU ライブラリを使用して、cuOpt LP ソルバーは、CPU ベースのソルバーと比較して 5,000 倍以上の高速パフォーマンスを実現しています。
3 MIN READ
2024 年 9 月 30 日
NVIDIA NIM Operator で Kubernetes の AI 推論パイプラインを管理
NIM Operator を使用すれば、わずか数回のクリックまたはコマンドで、NVIDIA NIM マイクロサービスのデプロイ、オートスケーリング、ライフサイクルを管理することができます。
2 MIN READ
2024 年 9 月 25 日
高速化された Llama 3.2 をエッジからクラウドへデプロイする
NVIDIA のアクセラレーテッド コンピューティング プラットフォームと組み合わせることで、Llama 3.2 は開発者、研究者、企業に、生成 AI のユース ケースを実現するための有益な新機能と最適化を提供します。
2 MIN READ
2024 年 9 月 23 日
Llama-3.1-Nemotron-51B による精度と効率の前進
NVIDIA は、比類のない精度と効率を実現する独自の言語モデル、Llama 3.1-Nemotron-51B を発表しました。 Meta の Llama-3.1-70B の派生モデルであり、新しい Neural Architecture Search (NAS) アプローチによる、高精度かつ効率的なモデルです。
3 MIN READ
2024 年 5 月 3 日
VILA を使用した NVIDIA ハードウェア上のビジュアル言語モデル
NVIDIA の開発した VILA は、包括的な事前トレーニング、指示チューニング、デプロイ パイプラインを備えたビジュアル言語モデルであり、NVIDIA のクライアントがマルチモーダル製品で成功するのを支援します。
3 MIN READ
2024 年 4 月 22 日
OpenUSD と NVIDIA Omniverse を使用した仮想工場ソリューションの開発
OpenUSD と生成 AI により、産業における開発者がどのように仮想工場ソリューションを構築し、市場投入までの時間を短縮し、生産能力を最大化し、コストを削減実現しているかをご覧ください。
1 MIN READ
2024 年 3 月 20 日
記録を塗り替え続ける NVIDIA cuOpt アルゴリズムがルート最適化ソリューションを 100 倍高速化
最適化アルゴリズムの主要な要素、その定義、業界をリードするソリューションに対して NVIDIA cuOpt のベンチマークを実行するプロセスについて掘り下げ、その比較の重要性に焦点を当ててご紹介します。
3 MIN READ
2024 年 3 月 20 日
マルチモーダル検索拡張生成 (RAG) の簡単な紹介
マルチモダリティ (複数の種類のデータ) を扱う上での課題と、マルチモーダル RAG パイプラインを構築するためのアプローチについてご紹介します。
3 MIN READ
2024 年 3 月 18 日
NVIDIA GB200 NVL72 は兆単位パラメーターの LLM トレーニングとリアルタイム推論を実現
新しい NVIDIA GB200 NVL72 は、計算負荷が高く、リソースを大量に消費する大規模なモデルのトレーニングとデプロイに対応するシステムの 1 つです。
4 MIN READ
2024 年 3 月 14 日
LLM アーキテクチャにおける Mixture of Experts の適用
Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と…
4 MIN READ
2024 年 1 月 17 日
cuDLA による NVIDIA Jetson Orin 上での YOLOv5 の紹介
この投稿は、Orin プラットフォームを使用する組込み開発者が、YOLOv5 をリファレンスとして、
5 MIN READ
2023 年 11 月 17 日
LLM テクニックの習得: 推論の最適化
LLM 推論における最も差し迫った課題と、いくつかの実用的な解決策について説明します。
6 MIN READ