目が不自由なMike May氏にとって、初めて訪れる場所での移動は難しい場合がある。数週間前には仕事関連のイベントで醸造所に行ったが、どこに行くべきか把握するのに苦労した。
しかし、幸いMay氏は「Envision Glasses」を装着していた。これは人工知能(AI)を利用して、視覚障害者が周囲の状況をより的確に把握できるよう補助するスマートグラスだ。小型カメラで物体や人、テキストをスキャンして、その情報を内蔵の小型スピーカーで伝えることができる。例えば、近づいてくる人がいるかどうか教えたり、部屋の中にあるものを説明したりできる。
May氏が利用していたEnvision Glassesの「Ally」機能なら、協力を得るために友人や家族とビデオ通話を開始できる。
アクセシビリティーを考慮したナビゲーションを展開する企業、GoodmapsのチーフエバンジェリストであるMay氏は、次のように語った。「同僚のEvelynさんに連絡して『何が見える?』と尋ねると、私の周囲の状況を伝えてくれた。テーブルがどこにあるかなど、この場所のさまざまなものの配置がこれで分かった」
Envision Glassesは、「Google Glass」のビジネス向けバージョン「Enterprise Edition」をベースとしている(そう、Google Glassはいまだに現役だ)。GoogleがGoogle Glassを発表したのは2013年のことで、同社は当時、このスマートグラスをかけるだけで通話やテキストメッセージの送信、写真撮影、地図の閲覧などができると宣伝した。しかし、限定発売の試みは失敗に終わり、一般の店舗で販売されることはなかった。
数年後、GoogleはGoogle GlassのEnterprise Editionに取り組み始め、これがEnvisionのベースになっている。ウェアラブル設計であることから、ユーザーが視線を向けた先の情報をキャプチャーして伝えるのには理想的なデバイスだ。
「Envision Glassesの基本的な機能は、周囲の視覚情報をすべて取り込んで処理を試みた後、ユーザーに音声で伝えることだ」とEnvisionの共同創設者Karthik Kannan氏は語る。
Envision Glassesは3268.91ユーロ(約45万円)で、Envisionのウェブサイトや販売代理店から注文できる。このスマートグラスとは別に、Envisionアプリを利用する選択肢もある。このアプリでも、スマートフォンのカメラを利用して、テキストをスキャンしたり、周囲の状況を確認したりできる。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス