logo

AIに賭けるNVIDIA--ディープラーニングを加速する新技術の数々 - (page 2)

Andrew Brust (Special to ZDNet.com) 翻訳校正: 編集部2018年03月31日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

ディープラーニングの推論を最適化

 上記のTensorRTというソフトウェアは、ディープラーニングの推論を最適化するランタイムだ。NVIDIAによると、最新版の「TensorRT 4」の性能は、CPUベースの推論の最高190倍高速だという。

 TensorRTは主要なディープラーニングフレームワークをサポートする。Googleの「TensorFlow」、Microsoftの「Cognitive Toolkit(CNTK)」、Facebookの「Caffe2」の他、「Chainer」、「Apache MXNet」、「PyTorch」などのOpen Neural Network Exchange(ONNX)フレームワークが含まれる。また、TensorRTがGoogleの「TensorFlow 1.7」で利用可能になる。これにより、一般のGPUと比較して8倍高速な推論のスループットを実現する。

 TensorRTはこの他、Microsoftの「WinML」と「Kubernetes」、そしてMathWorksの強力な数値解析ソフトウェア「MATLAB」もサポートすることが発表された。

Armとの提携

 NVIDIAのAI関連のニュースの3つ目は、プロセッサ業界の重鎮、Armとの新しい提携だ。NVIDIAが2017年10月にオープンソース化した「Deep Learning Accelerator(NVDLA)」を、Armの機械学習プラットフォーム「Project Trillium」とエッジデバイス向けチップ設計に組み込む。

 Armは自らはチップを製造せず、チップメーカーに設計をライセンスする。NVDLAをTrilliumに組み込むということは、広範なIoTなどのエッジデバイスが、高性能AIを実現するNVDLAの恩恵を受けることを意味する。エッジデバイスにAI機能を持たせればデータ転送を大幅に削減し、IoTデバイスをよりインテリジェント化できる。

急速なGPUの進化

 本稿は、NVIDIAから発表された新機能やテクノロジのリストにすぎない。筆者としては時間に余裕があれば、より詳細な背景と分析を加えたいところだ。だが、これもGPUの世界で何が起きているかを反映している。つまり、ハードウェアの改良やエコシステムでの提携があまりにも急速に進んでおり、この新しい展開が何なのか、その意味を含めて理解するには多大な努力が必要になる。

 NVIDIAは賢明にも、自社のテリトリーを可能な限り拡大している。いずれは同社の優位性が定まり、これらのクールな機能や技術のすべてがエンタープライズに適用されるのを見ることができるようになるだろう。それまでは随時、同社の動きをお伝えしていきたい。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]