その会話はありきたりなものに聞こえる。少なくとも、最初はそうだ。
筆者は、カリフォルニア州マウンテンビューにあるGoogleの広大なキャンパス内の「Partnerplex」という建物に招待され、誰かが電話でディナーの予約をする51秒の会話を聞かされた。内容は以下のとおり。
人物1:こんばんは。
人物2:もしもし。
人物1:はい。
人物2:もしもし。えーと、3日の金曜日にテーブルを予約したいのですが。
人物1:かしこまりました。少しお待ちいただけますか。
人物2:はい。
人物1:少々お待ちください。
人物2:はいはい。
人物1:11月3日の金曜日ですね。何名様ですか。
人物2:2人です。
人物1:2名様ですね。
人物2:はい。
男性と女性の会話のように聞こえる音声を筆者が聞いている間、Googleのデジタルアシスタント「Googleアシスタント」を担当する幹部たちはその様子を注視して、筆者の反応を推し量っていた。年次開発者会議「Google I/O」が開幕(米国時間5月8日)する数日前に、同社はGoogleアシスタントのいくつかの新機能を披露してくれた。
どうやらその新機能は、かなり並外れたもののようである。
というのも、上記の会話で男性のように聞こえた人物2は人間ではないからだ。人物2の正体はGoogleアシスタントだった。「Google Home」スマートスピーカが最新の天気予報や職場までの通勤に要する時間を伝えるときは通常、半分ロボットのような、リアルさを欠く声がスピーカから流れてくるが、その声とは全く違う。動画でその会話を聞くことができる。
この機能は、Googleアシスタントの次なる進化になるかもしれない。GoogleアシスタントはAmazonの「Alexa」、Appleの「Siri」、Microsoftの「Cortana」と競合するGoogleの音声アシスタントだ。その音声は見事なほど(気味が悪いほど、と言ってもいいかもしれない)人間のように聞こえる。質問に答える前に間をとり、「えーと」「あのー」といった意味のないつなぎ言葉も使う。あたかも同意を表してうなずいているかのように、「はいはい」などと言う。返答はアルゴリズムによって瞬時にプログラムされるにもかかわらず、答えを考える時間を稼ぐかのように、特定の言葉を引き伸ばして発音したりする。
「Google Duplex」と呼ばれる技術を利用して作られ、イスラエルのテルアビブ、米国のニューヨークとマウンテンビューのエンジニアおよびプロダクトデザイナーによって開発されたこの人工知能(AI)は、まるで音声アシスタントの未来がやってきたかのように聞こえる。
正確に言えば、その未来はすぐそこまで来ている。
今回のデモは、Googleが「実験」と呼ぶ取り組みの一環である。同社はそれを2018年夏に公開する計画だ。「少数」の人々がDuplexを使って、通常は電話で行うレストランや美容院の予約、営業時間の確認などができるようになる。そのやりとりは全てバックエンド、つまりGoogleアシスタントと例えばレストランの間で行われる。ユーザーは進行中の会話を耳にすることさえない。この電話は、ユーザー自身の電話番号ではなく、別の不特定の電話番号から発信される。
Googleはロールアウトの規模を明かしていないが、限定的なものになると述べている。同社が明かしたのは、現在Googleアシスタントを利用している全てのユーザーに提供されるわけではない、ということだけだ。Googleアシスタントと検索の製品およびデザイン担当バイスプレジデントを務めるNick Fox氏と、Googleのエンジニアリング担当バイスプレジデントのYossi Matias氏によると、これは非常に新しい技術であるため、Googleは「慎重に事を進めたい」と考えているという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」