Googleは米国時間12月8日、発話の不自由な人が容易にコミュニケーションできるよう支援するアプリ「Look to Speak」を、「Android 9.0」以降を対象に提供開始した。このアプリでは、候補として提示される複数のフレーズのうち、1つを見つめることによってそれを選択できる。さらに、選択されたフレーズをユーザーに代わって読み上げてくれる。
同アプリは、言語機能や身体に障害がある人を主な対象としており、発話と言語のセラピストであるRichard Cave氏とともに開発された。スマートフォンに組み込まれた機械学習を活用して、ユーザーの視線の先を特定するため、目の動きによって発話したいフレーズを選択することができる。
このアプリはスマートフォン向けに提供されているため、視線検出技術が組み込まれた特殊なコミュニケーションデバイスがなくても利用できる。そのようなデバイスの場合、自分の思いを一文字一文字出力できるが、Look to Speakアプリは、主要な考えをすばやく伝達できるように支援することを目的にしている。
視線検出の感度は調整可能で、単語やフレーズをパーソナライズすることもできる。アプリによって収集されるデータはすべて非公開となる。
このアプリはGoogleの実験的プロジェクトの一環として開発されている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」