Googleは2017年5月、人工知能(AI)ハードウェアの自作を支援する「AIY(AI yourself)Projects」を発表し、その第1弾として自然言語の音声認識が可能なDIYキット「AIY Voice Kit」を提供開始した。このキットは、「Google Assistant SDK」などと連携することで、「Raspberry Pi」を音声アシスタントに変えることができる。
さらにGoogleは今回、Raspberry Piで画像認識デバイスを自作できる「AIY Vision Kit」を発表した。このキットは、Googleの機械学習モデル「TensorFlow」を利用するもので、デバイスを制御する専用の「Android」アプリが近く登場する予定だ。
Googleによると、AIY Vision Kitは「デバイス上におけるニューラルネットワークのアクセラレーション」を特徴とし、Raspberry Piベースのデバイスがクラウド上での処理に頼ることなく画像認識を実行するという。なお、先行したAIY Voice Kitは、クラウド上で自然言語処理を行う。
AIY Vision Kitで自作する人は「Raspberry Pi Zero W」、Raspberry Piカメラ、4GバイトのSDカード、電源を別途用意する必要がある。AIY Vision Kit自体には、「VisionBonnet」アクセサリボード、ケーブル、段ボール製の箱とフレーム、レンズ装置、カメラ作動時に他者に知らせるためのプライバシーLEDが含まれている。
VisionBonnetボードは、Googleが開発した基盤で、Intelの画像処理チップ「Movidius MA2450」を搭載している。このチップがAIY Vision Kitの隠れた決め手だ。
AIY ProjectsチームのメンバーであるKai Yick氏は、Raspberry Piの公式雑誌「MagPi」の取材に応じ、このチップで画像認識を実行すると、「Raspberry Pi 3」で処理させる場合に比べて60倍高速になると述べた。VisionBonnetは、キットに含まれるケーブルでRaspberry Pi Zero Wに接続される。
AIY Projectsによると、AIY Vision Kitでは複数のニューラルネットワークプログラムを利用でき、第1のニューラルネットワークプログラムは、カメラの視野にいる人間、猫、犬を検知できるという。別のニューラルネットワークは、幸福感や悲しみなどの感情を検知できる。さらに、オープンソースモデルの「MobileNets」をベースにしたプログラムは、椅子やオレンジ、カップなど1000種類の物体を検知できる。
Googleは、開発者がこれらのニューラルネットワークを足がかりにして、第1のプログラムにウサギを認識させるなど、新しいタスクに適応させることを期待している。同社はまた、TensorFlowでモデルを再トレーニングするコンパイルモデル用のツールも提供している。
GoogleはVision Kitによって、さまざまな種類の動植物を特定したり、犬が裏口に来たことや車が私道を出発したことを認識したり、ゲストの感情を分析したり、さらに誰かが自分の部屋に入ったときに音を発するシステムを作ったりすることもできると提案している。
Vision Kitの価格は44.99ドル(約5000円)。現在Micro Centerで予約を受け付けており、12月29日より出荷される。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」