クラウドネイティブ テクノロジは、迅速な製品開発と、継続的な製品アップグレードに必要な柔軟性と俊敏性を提供します。

Jetson により、クラウドネイティブ テクノロジをエッジで利用できるようになり、クラウド アプリケーションに革命をもたらしたコンテナーやコンテナー オーケストレーションのような技術を活用できます。

NVIDIA JetPack には、Docker が統合された NVIDIA コンテナー ランタイムが含まれており、GPU アクセラレーション対応のコンテナー化アプリケーションを Jetson プラットフォーム上で実現できます。開発者は Jetson アプリケーションを、その依存関係もすべて含めて 1 つのコンテナーにパッケージ化し、あらゆる展開環境で動作させることができます。

Kubernetes のようなコンテナー オーケストレーション技術を用いて、Jetson プラットフォーム上のコンテナー化したアプリケーションのライフサイクルを大規模に管理することも可能です。


NVIDIA NGC では、以下の Jetson 用の開発コンテナーや展開コンテナーが提供されています。

  • L4T ベース コンテナー イメージ: Jetson 上のあらゆるコンテナー化アプリケーション用のベース イメージとなります。NVIDIA コンテナー ランタイムによって、プラットフォーム固有のライブラリとデバイス ノードが、基盤となるホストから L4T ベース コンテナーにマウントされます。同様に、CUDA、TensorRT、VPI、その他の JetPack のユーザー レベルのライブラリもホストから利用され、コンテナー化したアプリケーションで使用できます。

  • CUDA ランタイム コンテナー イメージ: CUDA ランタイム コンポーネントが含まれています (NVIDIA コンテナー ランタイムでは、これらのコンポーネントはホストからマウントされません)。このコンテナー イメージは、CUDA アプリケーションをコンテナー化して展開する場合に便利です。

  • TensorRT ランタイム コンテナー イメージ: TensorRT と cuDNN のランタイム コンポーネントが含まれています。これらのコンポーネントは、ホストからマウントされません (親イメージである CUDA ランタイムを通じ、CUDA ランタイム コンポーネントも含まれています)。このコンテナー イメージは、AI アプリケーションをコンテナー化して展開するのに便利です。

  • DeepStream コンテナー イメージ: DeepStream SDK に同梱されているプラグインとライブラリが含まれています。内容が異なる Base、Samples、IoT の 3 種類のイメージを利用できます。

  • TensorFlow コンテナー イメージ: Python 3.6 環境にプリインストールされている TensorFlow が含まれています。これを使用すれば、TensorFlow 開発環境をすばやくセットアップできます。このコンテナー イメージは、TensorFlow アプリケーションをコンテナー化する場合にベース イメージとして使用できます。

  • PyTorch コンテナー イメージ: PyTorch と、Python 3.6 環境にプリインストールされている TourchVision が含まれています。PyTorch の開発環境を迅速に構築でき、PyTorch アプリケーションをコンテナー化する場合のベース イメージとして使用できます。

  • 機械学習コンテナー イメージ: TensorFlow、PyTorch、JupyterLab、および Python 3.6 環境にプリインストールされている scikit-learn、SciPy、pandas などの一般的な機械学習およびデータ サイエンス フレームワークが含まれています。

参考情報