logo

AIに賭けるNVIDIA--ディープラーニングを加速する新技術の数々

Andrew Brust (Special to ZDNet.com) 翻訳校正: 編集部2018年03月31日 07時30分
  • このエントリーをはてなブックマークに追加

 人工知能(AI)業界ウォッチャーと本記事の読者なら、NVIDIAGPUベースのディープラーニングとAIの巨人であることはご存じだろう。NVIDIAの最高経営責任者(CEO)、Jensen Huang氏は米国時間3月27日、同社の年次イベントGPU Technology Conference(GTC)2018で、同社のGPUハードウェアおよびソフトウェアの大幅なアップデートを発表した。

 NVIDIAは同日、自動運転車テストのシミュレーション技術とプロフェッショナル向けグラフィック技術に関するニュースも発表した。

 本稿では、AIおよびディープラーニング関連の以下の3点の発表に絞ってお伝えする。

  • データセンター向けGPUプラットフォーム「Tesla V100」(およびハードウェア製品)のアップグレード
  • ディープラーニングの推論ソフトウェアを性能強化
  • Armと提携し、ArmベースのIoTチップにNVIDIAのディープラーニングアクセラレータ技術を提供

GPUのメモリを倍増

 まず大きなニュースは、コアテクノロジそのものだ。Tesla V100 GPUは、既存の製品(16Gバイト)の2倍の32Gバイトのメモリを搭載する。メモリが増えるほど、より深いディープラーニングモデルを扱えるようになり、つまり、モデルの予測性能の精度が上がる。

 新しいGPU技術は即日NVIDIAの「DGX Systems」で利用可能になった。それに加えて、CrayHewlett Packard EnterpriseIBMLenovoSupermicroTyanなどのOEMが2018年の第2四半期中に各社の製品で採用していく見込みだ。

新GPUスイッチと2ペタフロップスのサーバ

 プラットフォームのアップグレードで2つ目のニュースは、「NVSwitch」の発表だ。これは同社のインターコネクト技術「NVLink」を拡張したもので、NVIDIAによると、最高の「PCI Express」スイッチの5倍の帯域幅を提供し、より多くのGPUによる接続を可能にする。その結果、より大きなデータセットを扱え、複数のニューラルネットを並列で訓練できる。

 32GバイトのGPUとNVSwitchの発表は、それぞれ印象深いものだ。だがさらに、この2つはNVIDIAの「DGX-1」サーバのアップグレード版に搭載される。「DGX-2」と名付けられた新サーバは、V100 GPUを16基搭載し、メモリは512Gバイトだ。16基のGPUはNVSwitchの働きにより、1つのメモリスペースとして共有される。NVIDIAによると、DGX-2は世界初の2ペタフロップス(毎秒2000兆回の浮動小数点演算を行う)システムであり、「ディープラーニング研究とコンピューティングの限界を押し広げようとしているデータサイエンティストのために構築した」という。

 32GバイトのGPUは、ディープラーニングだけでなく、様々な高性能コンピューティング(HPC)分野で活用されるだろう。そのために、NVIDIAは「CUDA」、「TensorRT」、「NVIDIA Collective Communications Library(NCCL)」、「cuDNN」、ロボティックSDK「Isaac」をアップデートした。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]