Googleは、世界中に数多くいる視覚障がい者のさらなる自立を後押しすることを目指し、あるアプリを開発している。
Googleは米国時間5月8日、周囲にある物体やテキスト、人についてユーザーに音声で情報を伝える「Android」版アプリ「Lookout」を開発していることを明らかにした。Lookoutを使用する際には、このアプリをインストールしたデバイスをシャツのポケットに入れたり、ネックストラップで首にかけたりして、カメラが身体の外側に向くように装着する。
Lookoutは、ユーザーのその時点での行動に基づき4つのモードで動作する。これらのモードにはそれぞれ「Home(自宅)」「Work & Play(仕事や遊び)」「Scan(スキャン)」「Experimental(実験)」という名がついている。モードを選択すると、アプリは自宅のソファの場所や職場のエレベータの位置など、周囲で検知した物体についてユーザーに音声で伝える。
アプリのScan機能は料理本に掲載されたレシピなどのテキストを読み上げることも可能なほか、Experimentalモードでは開発中の各種機能を試すことができる。
このアプリはインターネット接続がなくても使用可能で、機械学習を利用してユーザーが音声で伝えてほしいと思っている情報を学習する。
Lookoutアプリは2018年内に米国向け「Google Play」ストアで提供開始される予定だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」