NVIDIA AI Workbench は、選択したシステムでデータ サイエンス、AI、機械学習 (ML) プロジェクトを合理化する無料の開発環境マネージャーです。 PC、ワークステーション、データ センター、クラウド上で、あるいはそれらをまたがり、スムーズな作成、計算、コラボレーションを行うことを目的としています。基本的なユーザー体験はシンプルです:
- 単一システムで簡単なセットアップ: Windows、Ubuntu、macOS ではクリック操作でインストールが完了し、リモート システムでは 1 行のコマンドでインストールすることができます。
- 分散型デプロイのための管理化された体験: 集中型のサービスベースのプラットフォームを必要としない、本当の意味でハイブリッドなコンテキストにおける無料の PaaS/SaaS 型のユーザー体験。
- エキスパートと初心者向けのシームレスなコラボレーション: パワー ユーザーによるカスタマイズを制限することのない、使いやすい Git、コンテナー、アプリケーション管理。
- ユーザーとシステム間の一貫性: 機能とユーザー体験を維持しながら、異なるシステム間でワークロードとアプリケーションを移行。
- GPU 処理の簡素化: NVIDIA ドライバーや NVIDIA コンテナー ツールキットなどのシステム依存関係、および GPU 対応のコンテナー ランタイム構成を処理。
この記事では、GTC 2024 での製品発表以来、最も重要な NVIDIA AI Workbench の 10 月のリリースにおけるハイライトをご紹介します。製品ビジョン実現に向けた大きな一歩です。
リリース ハイライト
このセクションでは、最新リリースでの主要な新機能とユーザーから要望のあった更新について、詳しく説明します。
主な新機能には以下が含まれます。
- ブランチ、マージ、差分、コミットと gitignore の細かい制御など、Git のサポートを拡大し、コラボレーションを強化します。
- Docker Compose のサポートを通じて、マルチコンテナー環境で複雑なアプリケーションとワークフローを作成します。
- シングルユーザー URL でアプリケーションを共有することで、シンプルかつ迅速、安全なプロトタイピングを実現します。
ユーザーの要望によるアップデート:
- デスクトップ アプリのダークモード
- ローカライズ版 Windows のインストール改善
Git サポートの拡張
これまで AI Workbench は、メイン ブランチでの単一のモノリシックなコミットのみをサポートしていました。 ユーザーはブランチとマージを手動で管理する必要があり、特にマージの競合の解決に関して、さまざまな種類の混乱が生じていました。 現在は、ブランチ、マージ、競合を、デスクトップ アプリと CLI で直接管理することができます。 加えて、コミットの個々のファイル差分を確認し、優先順位を付けることもできます。 この UI は、手動の Git 操作とシームレスに動作するように構築されており、関連する変更を反映して更新されます。
これらの機能は、デスクトップ アプリの 2 つの新しいタブ: [Changes (変更)] と [Branches (ブランチ)] に表示されます。
- 変更: 作業ツリーと以前のコミット間の差分を 1 行ずつ表示します。 ユーザーは、表示されているファイル差分、追跡された変更 (追加、修正、削除) に基づいて、ファイル変更を個別または一括で選択し、コミットすることができるようになりました。また、git-ignore にファイルを個別に拒否、または追加することもできます。 このビューはまた、手動の Git 操作を反映するように動的に更新されます。例えば、ファイルを手動でステージングし、作業ツリー内のファイルに変更を加えます。
- ブランチ: Git サーバー上のリモート ブランチを可視化するだけでなく、作成、切り替え、マージなどのブランチ管理を提供します。競合のあるブランチをマージすると、競合解決フローが開始されます。このフローは、ユーザーが UI 内で実行することも、選択した端末やファイル エディターに移動することもできます。
Docker Compose スタックによるマルチコンテナーのサポート
AI Workbench が、Docker Compose をサポートするようになりました。 ユーザーは、AI Workbench がシングルコンテナー環境向けに提供する構成、再現性、移植性と同様の容易さで、マルチコンテナー アプリケーションとワークフローを操作することができます。
基本的な考え方は、AI Workbench によって管理され、メインの開発コンテナーに接続する Docker Compose ベースの「スタック」を追加することです。 スタックを追加するには、ユーザーは 適切な Docker Compose ファイルをプロジェクト リポジトリに追加し、デスクトップ アプリまたは CLI でいくつかの設定を行うだけです。
NVIDIA では、いくつかの理由があって Docker Compose を使用しています。 1 つ目は、何もない所から開発を行うことを望んでいなかったからです。そのため、管理された Docker デスクトップ インストールなどの機能について Docker チームと協力してきました。
2 つ目は、AI Workbench の以外で、ユーザーがマルチコンテナー アプリケーションを操作できるようにするには、Docker Compose が最も簡単な方法だからです。この機能のビジョンは、AI Workbench 内のマルチコンテナー アプリケーションを合理化し、効果的な開発と演算処理を可能にし、シンプルな docker-compose
up コマンドで AI Workbench 外で起動できるようにすることです。
このマルチコンテナー機能は新しい機能であり、今後も進化し続けます。 NVIDIA AI Workbench 開発者フォーラムを通じて、是非フィードバックをお寄せください。問題解決をお手伝いいたします。
Docker Compose の仕組みの詳細をご覧ください。
セキュアな URL によるウェブ アプリケーション共有
AI Workbench により、ユーザーはプロジェクトに組み込まれた管理されたウェブ アプリケーションを簡単に起動することができます。 このプロセスは非常に簡単で、Web アプリがインストールされたプロジェクトを作成または複製し、プロジェクトを開始してからアプリを開始すると、ブラウザーに表示されます。
このアプローチは開発者の UX には最適ですが、迅速なプロトタイピングの UX やコラボレーションには適していませんでした。 他のユーザーにアプリケーションへのアクセスとテストを行ってもらう場合、AI Workbench のインストール、プロジェクトの複製、実行を依頼するか、アプリケーションを完全に抽出して実行し、ユーザーが利用できるようにする必要がありました。 1 つ目はユーザーの課題であり、2 つ目は開発者の課題です。
NVIDIA では、リモートの AI Workbench を設定して外部からのアクセスを可能にし、そのリモート上のプロジェクトにおいて、ウェブ アプリケーションを実行するための一回限りの安全な URL を作成することができるシンプルな機能でこれらの課題を克服しました。 ユーザーがリモートのポート 10000 にアクセスできることを確認するだけで、アプリケーションに直接アクセスできるようになります。 リンクをクリックしてアプリに移動するだけです。
このようなアクセスを有効にすることは、迅速なプロトタイピングとコラボレーションに役立ちます。 だからこそ、さまざまな SaaS がこれを提供するマネージド サービスとして提供しているのです。AI Workbench との違いは、データ センターのリソースや共有サーバーなど、独自のリソースや独自のネットワークで、このアクセスを提供できることです。 クラウドである必要はありません。
AI Workbench は、単一のブラウザーとプロジェクトで実行されている単一のアプリケーションに対して、このアクセスを制限することで、安全性を確保します。 つまり、ユーザーは URL を他のユーザーと共有できず、共有したウェブ アプリに制限されます。
ダーク モードとローカライズされた Windows インストール
多くのユーザーから、目に優しいダーク モードオプションの要望が寄せられました。 現在、このオプションは利用可能で、デスクトップ アプリから直接使用できる設定ウィンドウから選択できるようになっています。 ダーク モードの仕組みの詳細をご覧ください。
ローカル インストールの主なユーザー層は Windows ユーザーですが、すべての Windows ユーザーが英語パックを使用しているわけではありません。また、WSL コマンドの処理方法により、この AI Workbench のインストールがブロックされていました。 特に、Windows 上でキリル文字、または中国語で作業するユーザーがブロックされていました。 英語以外の言語パックを処理する方法を調整したので、現在は問題なく機能するはずです。 以前ブロックされていた場合は、是非お試しください。 それでも機能しない場合は、NVIDIA AI Workbench 開発者フォーラムでお知らせください。それにより NVIDIA は、引き続きこの機能を改善することができます。
新しい AI Workbench プロジェクト
このリリースで、AI 開発をすぐに始められるように設計された新しいサンプル プロジェクトをご紹介します。詳細は以下をご覧ください。 AI Workbench プロジェクトは、AI Workbench のコンテナー化された開発環境を定義する構造化された Git リポジトリです。 AI Workbench プロジェクトでは、以下を提供します。
- 簡単なセットアップと GPU 構成: プロジェクトを GitHub または GitLab からクローンするだけで、残りは AI Workbench が自動で GPU 構成を行います。
- 開発の統合: Jupyter や VS Code などの一般的な開発環境に対してシームレスにサポートし、ユーザー構成のウェブ アプリケーションについてもサポートします。
- コンテナー化されたカスタマイズ可能な環境: プロジェクトはコンテナー化され、分離され、簡単に変更可能です。 一貫性と再現性を確保しながら、特定のニーズに合わせてサンプル プロジェクトを適合させることができます。
NVIDIA AI Workbench サンプル プロジェクトをご覧ください。
マルチモーダル仮想アシスタント サンプル プロジェクト
このプロジェクトでは、ウェブ検索へのフォールバックを伴うマルチモーダル検索拡張生成 (RAG) パイプラインを使用して、独自の仮想アシスタントをすることが構築できます。 ユーザーは、2 つの RAG ベースのアプリケーションを操作して、AI Workbench の詳細を学んだり、ユーザー ドキュメントを参照したり、自身のインストールのトラブルシューティングをしたり、あるいは RAG パイプラインを独自のカスタム製品に集中させたりすることができます。
- Control-Panel: 製品のドキュメントを操作するためのカスタマイズ可能な Gradio アプリでは、ウェブページ、PDF、画像、動画を永続的なベクトル ストアにアップロードし、それらを問い合わせできます。 推論に関しては、NVIDIA API カタログのように、クラウド エンドポイントを選択したり、セルフホスト型のエンドポイントを使用して、独自の推論を実行できます。
- Public-Chat: 製品ドキュメントが読み込まれると、Gradio アプリは簡素化された「読み取り専用」チャットボットとなり、新しい AI Workbench アプリ共有機能を通じてエンド ユーザーと共有できます。
Competition-Kernel サンプル プロジェクト
このプロジェクトは、Kaggle コンペティションに取り組む際に簡単なローカル エクスペリエンスを提供します。 AI Workbench を通じて、ローカル マシン、またはクラウド インスタンスを活用し、コンペティションのデータセット、コードの作成、モデルの構築、結果の提出などを簡単に実行することができます。 Competition Kernel プロジェクトでは、以下を提供します。
- 独自の GPU で開発とテストを行い、数分でセットアップとカスタマイズを行う管理された体験。
- GitHub または GitLab によるコードのバージョン コントロールと追跡、コラボレーションが容易。
- ローカルで専用 IDE を使用するパワー: 堅牢なデバッグ、インテリジェントなコード補完、広範なカスタマイズ オプション。
- 既存のデータ ソース (外部または独自) への簡単なプラグイン。
- インターネットが使えない? 問題ありません。オフラインでも開発できます。
今すぐ始めましょう
この NVIDIA AI Workbench のリリースは、GPU システム全体で AI 開発に円滑な体験を提供する大きな一歩となります。 このリリースには、Git のサポートの拡張、マルチコンテナー環境のサポート、安全なウェブ アプリ共有など、AI ワークロードでの開発とコラボレーションの効率化などの新機能が含まれます。 このリリースで利用可能となった 3 つの新しいサンプル プロジェクトでこれらの機能をお試しいただくか、独自のプロジェクトを作成することもできます。
AI Workbench を始めるには、ウェブページからアプリケーションをインストールしてください。 インストールと更新の詳細については、NVIDIA AI Workbench のドキュメントを参照してください。
データ サイエンスから RAG まで、さまざまな NVIDIA AI Workbench のサンプル プロジェクトもご用意しています。
問題を報告したり、他の開発者による AI Workbench の活用方法を確認するには、NVIDIA AI Workbench 開発者フォーラムにアクセスしてください。
関連情報
- DLI コース: 対話型 AI Building Conversational AI Applications (アプリケーションの構築 )
- GTC セッション: Breaking Barriers: How NVIDIA AI Workbench Makes AI Accessible to All (障壁の打破: NVIDIA AI Workbench による AI をすべての人々に身近にする方法)
- ウェビナー: Virtual Desktop in the Era of AI (AI 時代の仮想デスクトップ)
- ウェビナー: Jumpstart AI Development With Virtual Workstations (仮想ワークステーションで AI 開発を加速)