NVIDIA、AI 開発を容易にするGPU Cloud プラットフォームを発表

NVIDIA 2017年05月12日 18時53分
From PR TIMES

ディープラーニングソフトウェアと世界最速の GPU を融合させるプラットフォーム



[画像: リンク ]

米国カリフォルニア州サンノゼ--GPUテクノロジカンファレンス - (2017 年 5 月 10 日) –
NVIDIA は本日、クラウドベースのプラットフォーム「NVIDIA GPU Cloud (NGC)」を発表しました。開発者の皆様は、自身のPC、NVIDIA DGXシステム、またはクラウド経由で包括的なソフトウェアスイートに便利にアクセスし、AI の革新的な力を利用することが可能になります。

今年で第8 回を迎えるGPUテクノロジカンファレンスで講演を行ったNVIDIA の創設者兼CEOであるジェンスン・フアン (Jensen Huang) は、以下のように述べています。「開発者はNGC を利用すれば、最適化された最先端のディープラーニングフレームワークや最新のGPU コンピューティングリソースに、今までよりも容易にアクセスできるようになります。」

NVIDIA のバイスプレジデント兼ゼネラルマネージャーであるジム・マキュー (Jim McHugh) は、次のようにコメントしています。「私たちは、AI 開発者の力を解き放つことで、よりスマートな世界の構築を可能にするクラウドプラットフォームを設計しました。クラウド上にある当社の最新のテクノロジーを利用すれば、居場所にかかわらずベストの仕事ができます。そして、いつでもどこでも、必要なときにアクセラレーテッドコンピューティングを利用できます。」

ディープラーニングの活用において、開発者とデータサイエンティストは、2 つの課題に直面しています。1 つ目は、ディープラーニングフレームワーク、ライブラリ、オペレーティングシステム、ドライバーなどの必要なソフトウェアコンポーネントを単一のスタックにまとめなければならない点です。2 つ目は、ニューラルネットワークをトレーニングするため、最新のGPU コンピューティングリソースへのアクセスが必要となる点です。

NVIDIA は、今年初めに、NVIDIA DGX-1™ AI スーパーコンピューター内の主要なソフトウェア要素をコンテナ化されたパッケージに統合することにより、上記の1 つ目の課題を解決しました。このパッケージ「NGC Software Stack」は、NGCの一部として、より幅広く提供されるほか、最大のパフォーマンスを得るために引き続き更新および最適化される予定です。

NGC は、ハードウェアの課題に対処するため、PC (TITAN X または GeForce(R)GTX 1080 Tiを搭載)、DGXシステム、またはクラウドからNGC Software Stack を実行できる柔軟性を開発者に提供します。

NGC は、開発者の皆様がディープラーニングのトレーニング、実験、および展開をより容易に実施できるようにすることで、ディープラーニングの開発作業を容易にし、高速化します。今まで以上に洗練されたニューラルネットワークを簡単に設計できるようになるほか、より多くのデータを処理し、反復作業を迅速化し、製品の市場投入に要する時間を短縮することが可能になります。

NGC は、以下の利点を提供します。

・ 専用設計:世界最速のGPU でディープラーニングを実行できるよう設計されています。
・ 最適化・統合済み:NGC Software Stack は、Caffe、Caffe2、CNTK、MXNet、TensorFlow、Theano、Torch フレームワークなど、幅広いソフトウェアを提供します。また、NVIDIA DIGITS™ GPU トレーニングシステム、NVIDIA Deep Learning SDK (例:cuDNN、NCCL)、nvidia-docker、各種GPU ドライバー、NVIDIA(R)CUDA(R)などにも対応しており、ディープニューラルネットワークを迅速に設計できます。
・ 利便性:NGC ユーザーは、わずか1 つの NVIDIA アカウントで、ディープラーニングワークフローの各プロジェクトを参照できる、シンプルなアプリケーションを利用できます。このアプリケーションは、PC、DGXシステム、NGC など、あらゆるシステムタイプに対応しています。
・ 柔軟性:どんな場所でも実行できるよう設計されています。PC 上の単一のGPU から開始し、その後、計算リソースをDGXシステムやクラウドからオンデマンドでさらに追加することもできます。データをインポートし、ジョブ構成を設定して、フレームワークを選択した後は、実行するだけです。実行後は、出力をTensorRT™に読み込ませて推論を行うこともできます。

NGCでは、柔軟なプラットフォームを利用し、どんなサイズやタイプのモデルも開発できるほか、モデルを試作して展開するまでのプロセスも容易になります。計算リソースの増減も可能で、必要なリソース分だけの支払いで済みます。

NGC は、第3四半期までにパブリックベータに移行する予定です。料金体系は後日発表いたします。詳しくはwww.nvidia.com/cloudをご覧ください。

プレスリリース提供:PR TIMES リンク

本プレスリリースは発表元企業よりご投稿いただいた情報を掲載しております。
お問い合わせにつきましては発表元企業までお願いいたします。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]