グーグル、人の動きをレーダーで検知して自動的に対応するスマート機器を目指す

Imad Khan (CNET News) 翻訳校正: 編集部2022年11月24日 11時05分

 Googleの設計チームは、スマート機器が近くにいる人の動きをレーダー技術で検知することにより、ウェイクワードなどの音声やタップなどの操作なしで、自動的に対応できるようにする方法を検討しているという。同社が米国時間11月22日に明らかにした

GoogleのNest Hub
Googleの「Nest Hub」
提供:Chris Monroe/CNET

 同社はその例として、レシピ動画を見ながら料理をしている人が画面の前を離れると、動画が自動的に一時停止し、戻ると再生するという機能を挙げている。

 レーダー技術に基づくこの検知プラットフォーム「Soli」は、6年前から開発されている。人の動きに反応するだけでなく、「ソーシャルインテリジェンス」を組み込むことによって、「より調和のとれた形でユーザーの意図を汲み取って私たちの日常生活に参加」できる技術を開発しようというのが、その構想だ。

 その狙いは、技術をさらに背景に溶け込ませることにある。これは、Googleがアンビエントコンピューティングと呼ぶもので、人間がその存在を意識しないほど深く技術を統合するという概念だ。

 Googleはまだ、主に検索に紐づけられた広告によって売上高の大半を得ているが、アンビエントコンピューティングという未来を実現するために、人工知能(AI)に大きく投資している。Googleの親会社Alphabetの最高経営責任者(CEO)であるSundar Pichai氏は、AIとアンビエントコンピューティングを、5月に開催した年次開発者会議「Google I/O」の焦点としていた。

 Googleは10月、「Pixel 7」シリーズと「Pixel Watch」を発売し、同社の「Tensor G2」チップがAIを活用して写真撮影と言語翻訳を改善できることを強調していた。「Android」との競争を続けていくには、未来的なデバイスのエコシステムを構築することが必要になるかもしれない。

 Soliのレーダー技術がいつホームデバイスに搭載されるかはまだ不明だが、2023年に発売予定の「Pixel Tablet」が、この技術を搭載するGoogleの主力端末になる可能性がある。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]