Googleは米国時間12月8日、発話の不自由な人が容易にコミュニケーションできるよう支援するアプリ「Look to Speak」を、「Android 9.0」以降を対象に提供開始した。このアプリでは、候補として提示される複数のフレーズのうち、1つを見つめることによってそれを選択できる。さらに、選択されたフレーズをユーザーに代わって読み上げてくれる。
同アプリは、言語機能や身体に障害がある人を主な対象としており、発話と言語のセラピストであるRichard Cave氏とともに開発された。スマートフォンに組み込まれた機械学習を活用して、ユーザーの視線の先を特定するため、目の動きによって発話したいフレーズを選択することができる。
このアプリはスマートフォン向けに提供されているため、視線検出技術が組み込まれた特殊なコミュニケーションデバイスがなくても利用できる。そのようなデバイスの場合、自分の思いを一文字一文字出力できるが、Look to Speakアプリは、主要な考えをすばやく伝達できるように支援することを目的にしている。
視線検出の感度は調整可能で、単語やフレーズをパーソナライズすることもできる。アプリによって収集されるデータはすべて非公開となる。
このアプリはGoogleの実験的プロジェクトの一環として開発されている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
NTT Comのオープンイノベーション
「ExTorch」5年間の軌跡
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
日本のインターステラテクノロジズが挑む
「世界初」の衛星通信ビジネス
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力