LLMs
2024 年 12 月 17 日
NeMo Curator を使った日本語テキスト データのドメイン分類
NeMo Curator は、日本のソブリン LLM の構築や更新のためのデータセットを準備するために、日本語をサポートする多言語ドメイン分類器をリリースしました。
3 MIN READ
2024 年 12 月 11 日
NVIDIA AI Blueprint でカスタマー サービス向けの AI バーチャル アシスタントを作成する 3 つの構成要素
NIM と NeMo™ Retriever を活用したリファレンス アプリケーションである NVIDIA NIM™ AI Blueprint を使用して、あらゆる業界のカスタマー サービスを変革しましょう。
2 MIN READ
2024 年 11 月 11 日
Megatron-LM を用いた日本語に強い 172B 大規模言語モデルの開発
日本のモデル開発を促進するためのプロジェクトである GENIAC に採択された LLM-jp が、NVIDIA Megatron-LM を使用して、日本語に強い 172B オープンモデルの学習を高速化しました。
2 MIN READ
2024 年 11 月 8 日
NeMo Framework で日本語 LLM をファインチューニング - DPO 編 -
NeMo Framework を使用して、日本語の大規模言語モデル (LLM) で、人間の嗜好や価値観に沿うようにモデルを調整するアライメント手法の一つである、DPO (Direct Preference Optimization) を実行する方法を説明します。
4 MIN READ
2024 年 10 月 28 日
NVIDIA GH200 Superchip が、Llama モデルとのマルチターン インタラクションの推論を 2 倍高速化
NVIDIA GH200 Grace Hopper Superchip を活用し、システム スループットを犠牲にすることなく、x86 ベースの NVIDIA H100 サーバーと比較して、Llama 3 70B モデルでマルチターンでユーザーとのやり取りする場合、TTFT を最大 2 倍に向上させる方法について解説します。
2 MIN READ
2024 年 10 月 16 日
NeMo Guardrails により LLM の脆弱性を防ぐ: 導入編
プログラム可能なガードレールを LLM ベースの対話システムに簡単に追加するための OSS 機能である NeMo Guardrails の詳細や導入方法を解説します。
3 MIN READ
2024 年 10 月 16 日
NeMo Guardrails により LLM の脆弱性を防ぐ: ジェイルブレイク防止編
LLM ベースの対話型アプリケーションにガードレールを追加するオープン ソースのツールキット「NeMo Guardrails」の Input Rails を用いたジェイルブレイク防止のチュートリアルを試します。
8 MIN READ
2024 年 10 月 9 日
先進的なソブリン AI モデルが、日本のイノベーションとチャンスを解き放つ
東京科学大学と産業技術総合研究所が、Llama 3.1 をベースに、日本特有の言語的/文化的ニーズによりよく応えるように設計された独自のソブリン AI モデル「Llama 3.1 Swallow」を共同開発しました。
2 MIN READ
2024 年 10 月 1 日
NVIDIA ACE と Unreal Engine 5 で、AI 駆動の MetaHuman の展開を簡素化しスケールアップ
NVIDIA は Unreal Fest Seattle 2024 で、AI 駆動の MetaHuman キャラクターを Windows PC 上で簡単に構築/展開できる「NVIDIA ACE」向けの Unreal Engine 5 オンデバイス プラグインを発表しました。
2 MIN READ
2024 年 9 月 25 日
高速化された Llama 3.2 をエッジからクラウドへデプロイする
NVIDIA のアクセラレーテッド コンピューティング プラットフォームと組み合わせることで、Llama 3.2 は開発者、研究者、企業に、生成 AI のユース ケースを実現するための有益な新機能と最適化を提供します。
2 MIN READ
2024 年 9 月 25 日
NeMo Curator を使った日本語データのキュレーション
NeMo Curator を使用した、効率的な日本語データセットの構築方法をご紹介します。
7 MIN READ
2024 年 9 月 23 日
Llama-3.1-Nemotron-51B による精度と効率の前進
NVIDIA は、比類のない精度と効率を実現する独自の言語モデル、Llama 3.1-Nemotron-51B を発表しました。 Meta の Llama-3.1-70B の派生モデルであり、新しい Neural Architecture Search (NAS) アプローチによる、高精度かつ効率的なモデルです。
3 MIN READ
2024 年 7 月 18 日
Transformer Engine ではじめる FP8 Training (導入編)
Transformer Engine とは、Transformer モデルの学習を効率的に行うためのオープンソース ライブラリで、GPU における Transformer モデルの学習効率を大幅に向上します。
5 MIN READ
2024 年 7 月 3 日
NeMo Framework で日本語 LLM をファインチューニング - SFT 編 -
NeMo Framework を使用して、日本語の大規模言語モデル (LLM) の SFT (Supervised Fine-Tuning: ファインチューニングの手法の一種) を実行する方法をご紹介します。
4 MIN READ
2024 年 6 月 3 日
NVIDIA と Hugging Face のコラボレーションで生成 AI モデルのデプロイが簡単に
NVIDIA は Hugging Face と共に一歩前進し、開発者がほんの数分でモデルを実行できるようにします。
2 MIN READ
2024 年 5 月 29 日
GenerativeAIExamples と NVIDIA API カタログを用いて Retrieval Augmented Generation を活用した LLM チャットボットを作成
GenerativeAIExamples と NVIDIA API カタログを用いて LLM と RAG を組み合わせたアプリケーションを簡単にデプロイする方法についてご紹介します。
4 MIN READ