Googleは、世界中に数多くいる視覚障がい者のさらなる自立を後押しすることを目指し、あるアプリを開発している。
Googleは米国時間5月8日、周囲にある物体やテキスト、人についてユーザーに音声で情報を伝える「Android」版アプリ「Lookout」を開発していることを明らかにした。Lookoutを使用する際には、このアプリをインストールしたデバイスをシャツのポケットに入れたり、ネックストラップで首にかけたりして、カメラが身体の外側に向くように装着する。
Lookoutは、ユーザーのその時点での行動に基づき4つのモードで動作する。これらのモードにはそれぞれ「Home(自宅)」「Work & Play(仕事や遊び)」「Scan(スキャン)」「Experimental(実験)」という名がついている。モードを選択すると、アプリは自宅のソファの場所や職場のエレベータの位置など、周囲で検知した物体についてユーザーに音声で伝える。
アプリのScan機能は料理本に掲載されたレシピなどのテキストを読み上げることも可能なほか、Experimentalモードでは開発中の各種機能を試すことができる。
このアプリはインターネット接続がなくても使用可能で、機械学習を利用してユーザーが音声で伝えてほしいと思っている情報を学習する。
Lookoutアプリは2018年内に米国向け「Google Play」ストアで提供開始される予定だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力