logo

グーグルがAIと音声認識で進める「アクセシビリティ」向上の取り組み - (page 2)

Marguerite Reardon (CNET News) 翻訳校正: 川村インターナショナル2019年05月10日 07時30分
  • このエントリーをはてなブックマークに追加

 現在のところ、これらのAIアルゴリズムは、英語話者と、一般的にALSに伴う発話障害に対してのみ機能する。しかし、Googleはこの研究成果をより多くの人々やさまざまな発話障害に適用できることを期待している。

 さらに、同社はパーソナライズされたAIアルゴリズムを訓練することで、音やジェスチャーを検知して、何らかのアクションを実行できるようにする(例えば、「Google Home」への音声コマンドの生成やテキストメッセージの送信など)取り組みも進めている。これは、特に言葉を全く発することのできない人に役立つかもしれない。

Project Diva

 Google Homeなどでデジタルアシスタントを使用すると、簡単な音声コマンドを伝えるだけで、お気に入りの曲などを流したりすることができる。だが、言葉を発することができない障害者は、この技術を利用できない。

 ミラノに拠点を置くGoogleの戦略的クラウドエンジニアのLorenzo Caggioni氏は、そうした状況を変えたいと考えた。同氏を触発したのは、先天性白内障、ダウン症候群、ウェスト症候群を患い、言葉を話せない弟のGiovanniさんだ。Giovanniさんは音楽や映画が大好きで、ほかの多くの21歳の青年たちと同じように、最新のガジェットやテクノロジーを使うことも好んでいる。だが、障害があるために、「OK Google」コマンドを声で発して、AndroidスマートフォンやGoogle Homeデバイスを起動するといったことはできない。

 弟がもっと自立し、より大きな自由を得られるように、Lorenzo氏とミラノのGoogleオフィスの数人の同僚は、声を使わずに「Googleアシスタント」への命令を生成する装置を作るため、Project Divaを立ち上げた。チームは有線ヘッドホンジャックを使ってスマートフォンやノートPC、タブレットに差し込めるボタン型の装置を作った。このボタン装置はBluetooth経由で接続して、Google Homeデバイスにアクセスすることができる。

 今は、手でこのボタンを押すだけで、Giovanniさんは友人や家族と同じように、同じデバイスやサービスで音楽を聴けるようになった。

 Lorenzo氏によると、Giovanniさんのために作った装置はほんの始まりにすぎないという。同氏のチームは、コマンドに関連する物体にRFIDタグを付けることで、言葉を話せない人がGoogleアシスタント経由でほかのさまざまなものにアクセスできるようにする計画も立てている。

figure_2
提供:Google

Live Relay

 このプロジェクトは、聴覚障害者や難聴の人が電話をかけたり、電話に出たりできるように支援する。デバイス上の音声認識技術とテキストを音声に変換する技術を使用することで、このソフトウェアは、ユーザーが入力している間、スマートフォンがユーザーの代わりに聞いたり話したりすることを可能にする。反応が素早く、入力予測候補を使用するため、文字入力の速さは同時型のコミュニケーション手段である電話に耐えられるようになっている。

 だが、Live Relayは、聞くことや話すことができない人のためだけのものではない。会議中、または地下鉄に乗車中で、電話に出ることはできないが文字を入力することならできる、という状況で使用することも可能だ。Googleはリアルタイムの翻訳機能の統合も検討しているので、言葉の壁に関係なく、世界中の誰にでも電話をかけて、コミュニケーションをとることができるようになるかもしれない。

 Pichai氏は基調講演で、次のように語った。「われわれが技術を進歩させていくうえで重要な方針のひとつは、あらゆる人にとって、より効果的に機能する製品を開発することだ」

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]