logo

ディープインサイトとトプスシステムズ、新世代AIプロセッサで組込みディープラーニングの超リアルタイム処理へ

ディープインサイト株式会社 2017年02月13日 13時40分
From PR TIMES

組込みディープラーニング技術と非従来アーキテクチャのAIプロセッサの融合で超高速100fpsで物体を判別可能な画像入力フロントエンドシステムを開発

エンベデッドディープラーニングフレームワーク「KAIBER」を開発するディープインサイト株式会社(本社:東京都品川区、代表取締役:久保田 良則)と新世代のプロセッサ「SMYLEdeep」を販売する株式会社トプスシステムズ(本社:つくば市、代表取締役:松本 祐教)は、ディープラーニングを用いて100fpsと超高速かつ低消費電力で一般物体判別が可能なシステムを実現しました。
 SMYLEdeepは従来型プロセッサの20分の1以下の75MHz動作でFull-HD入力画像に対する移動物体の検出及び判別を100fpsで実行可能(1つの物体の判別時間は2msec未満)で、消費電力は500mW未満*(28nmでチップ化した場合)。エネルギー効率(性能/電力比)は、1TOPS/W(Tera Operations Per Second/Watt)を超える。KAIBERは、エッジコンピューティングとIoT向けに開発された国産初のエンベデッドディープラーニングフレームワーク。 今回、SMYLEdeep向けに最適化されたKAIBERのディープニューラルネットワークを使用しており、判別率は93%以上。

IoTや自動運転などのエッジコンピューティング市場に、カメラ画像入力に対するリアルタイム分析/ディープラーニング処理システムとしてコンピュータ・ビジョン評価システムやSMYLEdeepを販売していきます。
なお、SMYLEdeepは、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の『極低電力回路・システム技術開発(グリーンITプロジェクト)』の「低消費電力メニーコア用アーキテクチャとコンパイラ技術」の成果の一部を適用して開発したSMYLEvideoの次世代にあたるメニーコアプロセッサです。
また今後、NEDOの『次世代人工知能・ロボット中核技術開発』の「メニーコア用のデータフロー型プログラミングの開発」で委託を受けて開発している技術成果をSMYLEdeepソフトウエアの一部に適用する可能性があります。」

自動運転やロボットにおいては、カメラに映される膨大な量の時系列画像に対するリアルタイム(実時間)での精度の高い計測処理や、AIを用いた確度の高い画像認識処理が必要とされております。認識処理の高度化に伴って必要な計算量は数TOPS(PC数百台分)以上になります。しかし、冷却が困難で夏にはが高温になる車載システムやモバイル機器では1W以下という低消費電力が求められます。そこで、高速化と低消費電力化を両立させ、これらの機器に組込み可能なディープラーニングシステムを開発しました。

トプスシステムズ社は、IoTやAIのエッジ・コンピューティングのプラットフォームとして、従来型プロセッサの20分の1以下の75MHz動作でも最大で毎秒480枚のFull-HD画像に対する画像認識処理(移動物体検出及び追跡)が可能な超高速なSMYLEdeep(注1)を製品化しております。
AIプロセッサは、マイクロプロセッサの発展におけるブレークスルーとして注目されており、GPUが3,000以上のコアを集積することでCPUを超える高い性能を達成しているが、消費電力が大きく、コストが高いという課題があります。カメラからのリアルタイム画像に対し、低消費電力で画像認識処理やディープラーニング等のAIを組込みデバイス環境で高速実行することは困難でした。トプスシステムズ社は、本技術を「SMYLEdeep プロセッサIP」としてライセンス提供するとともに、SMYLEdeepをFPGA上に実装した「コンピュータビジョン評価システム」を販売しています。

ディープインサイト社は、現在、ほとんどの汎用ディープラーニングフレームワークは商用サポート環境が極めて未整備で、小型デバイス等への組み込み用途も考慮しておらず、エッジコンピューティングへの適用に大きな障害となっている現状の中、今後生まれる多様なIoTデバイスにディープラーニングを簡単に組み込める使い易さと商用ビジネス展開を支援できるサポート体制を実現する為、純国産ディープラーニングフレームワーク「KAIBER」を開発しています。今回は、SMYLEdeepの低消費電力・高性能とKAIBERの柔軟なデバイス最適化構造という特徴を融合した次世代システムを実現いたしました。

トプスシステムズ社は、ヒトの代わりに「観て」「診て」「看て」ほしい機能は様々で、画像認識やAI技術を駆使したソフトウエアを用途に応じて入れ替える『Autonomous Camera』のコンセプトに基づき、大手企業との協業により、IoTやAIのエッジ・コンピューティング・プラットフォームを実現する事業化を進めています。トプスシステムズ社は、SMYLEdeepに最適化したディープラーニングフレームワークKAIBERを用いたソリューションを提案していきます。

また、ディープインサイト社は、SYYLEdeepに最適化したディープラーニングフレームワークKAIBERを製品化していきます。

開発したソリューションは、組込み業界で長年の実績を持つデータテクノロジー株式会社(本社:東京都立川市 代表取締役:渡邊和彦)が代理店となり販売していく予定です。

以上

トプスシステムズ株式会社について

トプスシステムズ社は、データフロー型の分散並列処理と独自特許技術の活用により、メモリアクセス量を汎用CPUの1/280に削減するとともに、コア間の通信や同期に要する時間とエネルギーを最小限に抑えることで、8コア構成で75MHzという低い動作周波数で消費電力を抑えつつも、最大480fpsでの超高速画像認識処理が可能なSMYLEdeepを開発しプロセッサIPとして製品化しています。

SMYLEdeepを用いることにより、自動運転などに用いられる移動物体検出アプリケーションソフトにおいて、Intel社のCore i7 2.6GHzに比べて、35分の1の動作周波数でありながら、20倍以上の処理速度を達成しています。

注1:SMYLEdeep
トプスシステムズ社の開発したデータフロー型の並列処理を得意とし、高度な並列処理を効率よく実行可能な新しいタイプのプロセッサ。動作周波数が低くても高速処理が可能なためエネルギー効率(消費電力あたりの性能)が高く、またコア数を増加することでほぼリニアに性能を向上可能なため、組込みシステム等のローエンドからサーバーなどのハイエンドまでスケーラブルな応用が可能な新世代の計算プラットフォームです。

注2:Autonomous Camera
カメラ内にイメージセンサに加えてスパコン並みのプロセッサを組込むことで、用途に応じでソフトウエアによって所望の画像認識や人工知能を応用して自律的な機能を実現するというコンセプト。プロセッサは、超高性能、かつ省電力が必須であり、この条件を満たすのは、トプスシステムズ社のSMYLEdeepだけである。
自動運転、ロボット、監視カメラ、見守りなど、ヒトの代わりに「観る」「診る」「看る」のコンピュータの眼(社会の眼)として、その応用が期待されています。

SMYLEdeep詳細

■ 開発の背景
コンピュータや電子機器の中核技術であるマイクロプロセッサの分野においては、2000年に入って動作周波数の向上が頭打ちになり、動作周波数の向上に頼ることなく、並列処理を活用しコア数を増やすことで処理速度の向上が可能なメニーコア技術が注目されています。

特に自動運転やロボットにおいては、カメラに映される膨大な量の時系列画像に対するリアルタイム(実時間)での画像認識処理が必要とされていますが、認識処理の高度化に伴って、必要な計算量はPC数十台分から数百台分にもなります。そのため、高速化と低消費電力化を両立するAIプロセッサが必要とされています。

そのようなAIプロセッサの実現により、カメラモジュールへのメニーコアの内蔵によるカメラのインテリジェント化(ヒトの眼や大脳の視覚野の機能の代替)が可能となり、新たな価値の創造やビジネス領域の開拓につながると期待されています。

■ 課題

メニーコアは、動作周波数の向上に頼らずに、並列処理を活用してコア数を増やすことで処理速度を向上する強力な手法であり、マイクロプロセッサ発展のブレークスルーとして注目されていますが、現状ではGPUに代表されるように、データ並列性が高い画像処理や科学技術計算などで、且つ消費電力が比較的高くても許容できる限られたアプリケーションにしか有効に適用できていません。
特に、自動運転やロボットなどコンピュータ・ビジョン・システムに搭載されている画像センサーから取得される時系列画像に対する認識処理は、連続する画素データだけでなく特徴量などの離散的なデータに対する効率の良い並列処理を実現することは困難でした。

■ 開発した技術

トプスシステムズ社は、NEDO「グリーンITプロジェクト」で開発したメニーコア・アーキテクチャの基本的課題を解決するZOMP技術(コア間のデータ通信と同期のオーバーヘッドを解消する特許技術)を活用し、データフロー型の分散並列処理により、データ並列処理に加えて、パイプライン並列処理やタスク並列処理を組み合わせた高度な並列処理を効率よく実行できるメニーコアを開発しました。
これにより、離散的なデータ処理も効率よく扱えるようになり、動作周波数が低く抑えて低消費電力でありながら、超高速の画像認識を実現しました。
プロセッサ間通信のオーバーヘッドの削減およびメモリアクセスの削減により、プロセッサ・コア数を増やすことで、ほぼリニアに性能を向上できるという、高いスケーラビリティを実現しています。
開発したメニーコア技術は、以下の各技術を適用するものです。
1. データフロー型のパイプライン並列処理(ZOMP技術を含む)
人間の脳の内部での処理と同様に、各機能が入力されたデータに基づいて処理を行い、処理の結果が次の機能に順次に渡され、連鎖的に動作し、全体としてパイプラインで動作することにより並列処理を実現する。この時、各機能間でのデータのやり取り必要な同期に要する遅延時間(オーバーヘッド)が従来のコンピュータシステムでは大きいが、トプスシステムズではこれをZOMP(Zero Overhead Message Passing)技術により、ゼロにしている。SMYLEvideo(Gen-2)は、ZOMP技術を搭載することで、オーバーヘッドが無く効率の高い並列処理を実現している。

2. 高機能命令
一般的なマイクロプロセッサであるRISCプロセッサでは、1命令で1演算を1サイクルで処理するが、SMYLEvideo(Gen-2)のプロセッサ・コアに搭載する高機能命令では、1命令で数100演算を1サイクルで処理している。

3. 大容量のレジスタファイル
一般的なマイクロプロセッサは、メモリに保存されているデータを、コア内の比較的小さな容量のレジスタファイルに移動してから演算処理をする。そのため、演算処理に必要なデータがレジスタファイルに入っていない場合には、メモリからレジスタファイルに転送する必要があり、時間が掛かる。SMYLEvideo(Gen-2)のプロセッサ・コアは、レジスタファイルを4kByteと大容量化することにより、メモリとレジスタファイルの間の転送とそれに要する時間を削減している。

4. ストリーム処理
マイクロプロセッサは、メモリからレジスタファイルへのデータ転送が完了しなければ、そのデータを使用する演算処理を開始できない。ストリーム処理では、演算処理の実行中に、後続の複数の演算処理で必要なデータを纏めてメモリからレジスタファイルに転送しておくことにより、演算処理の開始待ち時間を無くしている。SMYLEvideo(Gen-2)のプロセッサ・コアは、演算処理の実行中に、メモリとレジスタファイル間での大量のデータ通信を行う機能を備えており、メモリアクセス待ちによる性能低下を抑えている。

5. コア間レジスタ共有
複数のマイクロプロセッサを活用するマルチコアやメニーコアでは、プロセッサ・コア間でデータの受け渡しをする時に、共有メモリに一旦レジスタファイル内のデータを転送する必要がある。トプスシステムズ社の開発したコア間レジスタ共有では、コア間でレジスタファイル内のデータを参照することができるため、コア間でデータを渡すための処理(エネルギーと時間)が不要になる。SMYLEvideo(Gen-2)は、コア間レジスタ共有を搭載することで、メモリアクセスを削減した極めて効率の良いプロセッサ間通信を実現している。

6. データ並列処理
複数のマイクロプロセッサを活用するマルチコアやメニーコアでは、画像データのように複数データが連続する場合、複数のデータに対して同一の処理を同時に行うことにより処理時間を短縮するデータ並列処理を行う。SMYLEvideo(Gen-2)では、プロセッサ・コア内、及びプロセッサ・コア間の2つのレベルでのデータ並列処理を実現している。例えば、プロセッサ・コア内では32要素の8ビットデータに対するデータ並列処理(SIMD処理)が可能であり、また複数のプロセッサ・コアを用いて、画像データの一部を各コアに割り当てて処理することもできる。

■ 効果

自動運転などに用いられる車載カメラからの歩行者検出を行う画像認識アプリケーションソフトにおいて、Intel社のCore i7 2.6GHzに比べて、52分の1の動作周波数(50MHz)でありながら、約20倍(最大480fps)の画像認識処理速度を達成しました。また、画像認識処理に必要なメモリアクセス量の1/280への削減を達成しました。
また、コア数を増やすことで、処理性能をほぼリニアに増加させることができるため、GP-GPUを遥かに超える高い性能を容易に実現するアーキテクチャとして、その応用が期待されます。
本技術により、メニーコア技術の適用できる範囲が自動運転やロボット向けのカメラモジュール等の小型で低消費電力が求められる画像認識システムにまで広がります。さらに、人による認識が困難な瞬時の物体の動きを高精度に認識できるようになることで、新たな応用が可能になります。例えば、監視カメラ自体が移された画像からリアルタイムに異常を高精度に検知したり、赤ちゃんや老人の様子を監視し異常を検知したりすることで介護支援を実現するなど、様々な分野でメニーコアの活用による高度化が期待されます。

■ SMYLEdeepの今後の展開
トプスシステムズは、画像認識技術のさらなる高精度化・高機能化を進め、「人の代わりに観るシステム」を実現するコア技術として、SMYLEdeepのチップ化、および画像認識や人工知能向けの標準ライブラリの提供を進めていく計画です。

ディープインサイト株式会社について

当社は、「告往知来」(こくおうちらい)という鋭い洞察力を表す故事成語をキーワードに、ディープラーニング技術で未来を見通す力を生み出す企業をめざすテクノロジーベンチャーです。日本で初となる組み込み向けディープラーニングフレームワーク「KAIBER」(カイバー)を独自開発する技術力を保有し、IoTとエッジコンピューティングの融合を強力に推進しています。

KAIBER詳細
* KAIBERの用途
「KAIBER」はDNN(Deep Neural Network)の学習・開発環境として機能し、また作成した推論実行モジュールは多様な小型デバイスやエッジサーバー、そしてスマートフォンなどの端末アプリケーションに簡単に組み込むことが可能で、IoTシステムへのディープラーニングの導入を劇的に促進するエンベデッドディープラーニングフレームワークとして利用できます。
ディープラーニングフレームワーク自体の開発には高度な技術力が必要であり、世界的にも限られた種類しか存在しません。しかも、「KAIBER」のように組み込み分野に特化した汎用フレームワークは皆無です。

* KAIBERの特徴
小さなモジュールを組込むだけ。
学習サーバー機能と完全分離された推論実行モジュールを、多様なデバイス・アプリに簡単に組込み可能。業界最小クラス(20K~)のフットプリントを実現。

純国産のディープラーニングフレームワーク。
すべてのコードをゼロから開発。完全自社開発の為、プロジェクトに合わせた柔軟な商用サポートも提供可能。先進のGUIを搭載し、効率よく作業を行えるので開発・検証も容易。

多様なアーキテクチャに迅速対応。
フレームワーク全体をJavaで開発し、推論実行モジュールはC言語版も用意。新しいデバイスやプラットフォームに即座に対応。

柔軟な課金モデル
標準版(iOS/Android)の推論実行モジュールは無償配布可能。少量のテスト販売から量産品への組込みまで、リスクを抑えながら幅広いビジネスに挑戦できます。多様な独自デバイス(CPU/GPU/FPGA/DSP等)への最適化にも対応するロイヤリティ方式も準備。

* KAIBERの今後の展開

「KAIBER」は現在、クローズドβテストを実施しており、提携企業での評価を進めています。また、本年春頃には有償での商用ライセンスの提供を開始する予定です。

以上

問い合わせ窓口:
会社名:株式会社トプスシステムズ
代表者: 代表取締役 松本祐教
所在地:茨城県つくば市竹園1−6−1 つくば三井ビル 5階
事業: マイクロプロセッサの研究・開発・販売
URL:リンク
お問い合わせ先:sales@topscom.co.jp
担当:松本

会社名:ディープインサイト株式会社
代表者:代表取締役社長 久保田良則
所在地:東京都品川区東五反田5−22−37 オフィスサークルN五反田1109
事業:ディープラーニングシステムの企画・開発・販売
URL:リンク
お問い合わせ先:contact@deepinsight.co.jp
担当:久保田

■ 商標について
記載されている製品名などの固有名詞は、各社の商標または登録商標です 。
以上

プレスリリース提供:PR TIMES リンク

本プレスリリースは発表元企業よりご投稿いただいた情報を掲載しております。
お問い合わせにつきましては発表元企業までお願いいたします。

今日の主要記事