「Project Soli」は、2015年の「Google I/O」で最初に発表され、カメラよりも高速かつ高精度でごく微細な動きを検出できるレーダーセンサーとして宣伝された。このマイクロチップの最初の実装例の1つは、スコットランドのセント・アンドリューズ大学の研究者が3次元の物体(例えばリンゴとオレンジ)を区別できるように開発した「RadarCat」というマシンだった。
Soliが一般市場向けデバイスに初めて登場したのは2019年のことで、Pixel 4に搭載された。Pixel 4で、Soliは同スマートフォンの前面カメラと連携し、衣服越しでも、あるいは暗闇の中でも、ジェスチャーを認識した(カメラをオンにしておく必要はなかった)。例えば、ユーザーはスマートフォンの前で、空中でスワイプして、Spotifyの楽曲をスキップすることができた。また、Pixel 4は自動的にユーザーの存在を検知して、ディスプレイを点灯させるといったこともできた。
しかし、残念ながら、Pixel 4の少し期待外れの評価と、(ハードウェアを考えると)高額すぎるという印象を多くの人に与えた価格設定が原因で、同機は発売から1年も経たないうちに販売が終了し、Soliを搭載しない廉価版の「Pixel 4a」に置き換えられた。Soliは、2020年10月に発売された「Pixel 5」にも搭載されなかった。
Googleによると、新しいNest Hubは、同社が「Quick Gestures」(クイックジェスチャー)と呼ぶ機能をサポートしているという。おそらく、これはPixel 4でできたことと同様の機能だろう。例えば、本体の前で手を振ってアラームを停止する、オーディオ再生中に手を右に動かして次の曲にスキップする、左に動かして前の曲に戻る、ディスプレイの上の空中でタップして再生を一時停止または再開する、といったことが可能になるのではないだろうか。
有料になるようだが、具体的な金額やGoogleがいつから料金を請求するのかは、まだ不明だ。同社はこの機能を「2022年まで、無料のプレビュー版」として提供するという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手