logo

人間に近づいた「Googleアシスタント」--グーグル幹部に聞くAIの未来 - (page 4)

Richard Nieva (CNET News) 翻訳校正: 川村インターナショナル2018年05月16日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

「全ての答えを知っているわけではない」

 Googleは自然に聞こえる音声技術に「何年も前から」取り組んでいる、とMatias氏は言う。同氏はテルアビブにある研究開発センターを率いている。Googleによると、Duplexはスマートフォン向けの汎用AI技術ではなく、個別の目的に特化した技術だという(その手始めが、例えば予約の機能だ)。その技術が完璧ではなく、Googleの動きが慎重であることは、Matias氏もむろん認めている。人間らしく聞こえるAIとなると、難しい問題が山のようにあるからだ。

 例えば、ソフトウェアがおかしなことを喋り出したらどうなるだろう。Matias氏によれば、Duplexが暴走することはなく、中小企業のオーナーたちがロボットに話しかけながら途方に暮れることもないという。Duplexを実際に公開するときには、電話の相手がデジタルアシスタントであることを利用者に伝えるようになるだろう、とMatias氏は話している。筆者が聞いた録音では、まだそうなってはいなかったが。

 「実験を進めながら、どういう形でこういったやりとりをするか、よく考える必要がある。事を進める上では、透明性を示すべきだと考えている」(Matias氏)

figure_2
Googleのエンジニアリング担当バイスプレジデント、Yossi Matias氏
提供:James Martin

 会話がうまくいかなくなった場合、Duplexは、Matias氏の言う「リアルタイム教師あり学習」に頼ることになる。途中から通話を人間に引き継ぐのだ。通常は人が通話をモニターしているわけではないので、会話は初めからやり直す必要があるだろう。引き継いだ人が、それまでの通話の記録を見ることになるのかどうか、Googleから言及はなかった。

 Duplexは、まるでSFのような技術だ。そうなると、現実的にも哲学的にもいろいろと問題が出てくる。人間のようなAIを、どう扱うべきか。人間とロボットの間には、どんなエチケットが必要か、それを発展させる必要はあるのか。人と話すとき、AIはどんな形で正体を明らかにするのが望ましいのか。もちろん、会話の流れを止めることなく、である。

 こうした問題について聞くと、Googleも研究を進めながら学んでいるところだ、とFox氏は答えた。

 「みんなで適切な期待値を設定する必要がある。これは、技術の実装上の問題で、率直に言うと、まだわれわれはその答えを全て知っているわけではない。実用化されていくなかで答えを出していかなければならない問題だと思う」(Fox氏)

 シリコンバレーの未来予測学者で、現在スタンフォード大学の教授を務めるPaul Saffo氏は、この問題の行く末について、ある考えを持っている。人間のようにリアルなAIの開発者は、そのAIを扱う全員に対して、話し相手が機械であることを明らかにする義務を負っている、というのだ。

 だが、この手の技術が広く普及すれば、人々はロボットにその「気配」を感じるようになるだろう、とSaffo氏は考えている。「機械が進化するにつれて、人は話し相手が機械かどうか区別できるようになると思う」(同氏)

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]