NVIDIA、機械学習をGPUで高速化するオープンソースプラットフォーム「RAPIDS」

Andrew Brust (Special to ZDNET.com) 翻訳校正: 湯本牧子 長谷睦 (ガリレオ)2018年10月11日 12時46分

 動画やグラフィックス製品のメーカーから人工知能(AI)関連製品の大手企業に転じたNVIDIAは、ドイツのミュンヘンで現地時間10月10日に開催された「GPU Technology Conference」の基調講演で、AIに関してまた新たな一歩を踏み出した。

 ただし今回、NVIDIAが発表したのは、新しいGPUでも、ディープラーニングに使用する新たな独自のソフトウェア開発キット(SDK)でもない。今回発表したのは、GPUを利用した高速の分析や機械学習(ML)のための、オープンソースのGPUアクセラレーションプラットフォームだ。

高速なAI処理

 一連のライブラリを提供するこの新しいプラットフォーム「RAPIDS」は、「scikit-learn」や「Pandas」にあるようなPythonインターフェースを擁する。ただしRAPIDSでは、1つまたは複数のGPU全体のアクセラレーションに、NVIDIAのCUDAプラットフォームを活用している。

 NVIDIAの最高経営責任者(CEO)を務めるJensen Huang氏は9日、テクノロジ分野の記者向けの電話会見で、この技術の概要を説明した。それによると、訓練の過程にRAPIDSを導入することにより、CPUのみの実装と比べて50倍の高速化を実現したという(この高速化は、NVIDIAの「DGX-2」システム上でMLアルゴリズム「XGBoost」を使用したシナリオで計測されたとのことだが、CPUのハードウェア構成については詳細は明かされなかった)。

コミュニティーとの連携およびパートナー企業

 RAPIDSは、インメモリ列指向データ技術の「Apache Arrow」を組み込んでいるようで、「Apache Spark」上で動作するよう設計されている。Apache Sparkへの対応を念頭に、NVIDIAはDatabricksの支持を得た。DatabricksはRAPIDSを独自の分析およびAIプラットフォームに組み込む予定だ。

 とはいえRAPIDSプラットフォームを支持するビッグネームはDatabricksだけではない。Pythonのディストリビューションを提供するAnacondaのほか、IBMHewlett Packard Enterprise(HPE)Oracleなどのテクノロジ大手も参加している。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]