上記のTensorRTというソフトウェアは、ディープラーニングの推論を最適化するランタイムだ。NVIDIAによると、最新版の「TensorRT 4」の性能は、CPUベースの推論の最高190倍高速だという。
TensorRTは主要なディープラーニングフレームワークをサポートする。Googleの「TensorFlow」、Microsoftの「Cognitive Toolkit(CNTK)」、Facebookの「Caffe2」の他、「Chainer」、「Apache MXNet」、「PyTorch」などのOpen Neural Network Exchange(ONNX)フレームワークが含まれる。また、TensorRTがGoogleの「TensorFlow 1.7」で利用可能になる。これにより、一般のGPUと比較して8倍高速な推論のスループットを実現する。
TensorRTはこの他、Microsoftの「WinML」と「Kubernetes」、そしてMathWorksの強力な数値解析ソフトウェア「MATLAB」もサポートすることが発表された。
NVIDIAのAI関連のニュースの3つ目は、プロセッサ業界の重鎮、Armとの新しい提携だ。NVIDIAが2017年10月にオープンソース化した「Deep Learning Accelerator(NVDLA)」を、Armの機械学習プラットフォーム「Project Trillium」とエッジデバイス向けチップ設計に組み込む。
Armは自らはチップを製造せず、チップメーカーに設計をライセンスする。NVDLAをTrilliumに組み込むということは、広範なIoTなどのエッジデバイスが、高性能AIを実現するNVDLAの恩恵を受けることを意味する。エッジデバイスにAI機能を持たせればデータ転送を大幅に削減し、IoTデバイスをよりインテリジェント化できる。
本稿は、NVIDIAから発表された新機能やテクノロジのリストにすぎない。筆者としては時間に余裕があれば、より詳細な背景と分析を加えたいところだ。だが、これもGPUの世界で何が起きているかを反映している。つまり、ハードウェアの改良やエコシステムでの提携があまりにも急速に進んでおり、この新しい展開が何なのか、その意味を含めて理解するには多大な努力が必要になる。
NVIDIAは賢明にも、自社のテリトリーを可能な限り拡大している。いずれは同社の優位性が定まり、これらのクールな機能や技術のすべてがエンタープライズに適用されるのを見ることができるようになるだろう。それまでは随時、同社の動きをお伝えしていきたい。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス