logo

グーグルのSoli搭載、新型「Nest Hub」--カメラ使わない睡眠追跡はどんな仕組み? - (page 3)

Dale Smith (CNET News) 翻訳校正: 川村インターナショナル2021年03月19日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

Soliはリンゴとオレンジを区別するのに使われた

 「Project Soli」は、2015年の「Google I/O」で最初に発表され、カメラよりも高速かつ高精度でごく微細な動きを検出できるレーダーセンサーとして宣伝された。このマイクロチップの最初の実装例の1つは、スコットランドのセント・アンドリューズ大学の研究者が3次元の物体(例えばリンゴとオレンジ)を区別できるように開発した「RadarCat」というマシンだった。

Pixel 4と「Pixel 4 XL」でSoliは短期間、表舞台に立っていた

 Soliが一般市場向けデバイスに初めて登場したのは2019年のことで、Pixel 4に搭載された。Pixel 4で、Soliは同スマートフォンの前面カメラと連携し、衣服越しでも、あるいは暗闇の中でも、ジェスチャーを認識した(カメラをオンにしておく必要はなかった)。例えば、ユーザーはスマートフォンの前で、空中でスワイプして、Spotifyの楽曲をスキップすることができた。また、Pixel 4は自動的にユーザーの存在を検知して、ディスプレイを点灯させるといったこともできた。

 しかし、残念ながら、Pixel 4の少し期待外れの評価と、(ハードウェアを考えると)高額すぎるという印象を多くの人に与えた価格設定が原因で、同機は発売から1年も経たないうちに販売が終了し、Soliを搭載しない廉価版の「Pixel 4a」に置き換えられた。Soliは、2020年10月に発売された「Pixel 5」にも搭載されなかった。

新しいNest Hubではどんなジェスチャーを使用できるのか

 Googleによると、新しいNest Hubは、同社が「Quick Gestures」(クイックジェスチャー)と呼ぶ機能をサポートしているという。おそらく、これはPixel 4でできたことと同様の機能だろう。例えば、本体の前で手を振ってアラームを停止する、オーディオ再生中に手を右に動かして次の曲にスキップする、左に動かして前の曲に戻る、ディスプレイの上の空中でタップして再生を一時停止または再開する、といったことが可能になるのではないだろうか。

睡眠追跡を使用するのに料金はかかるのか、料金はいくらなのか

 有料になるようだが、具体的な金額やGoogleがいつから料金を請求するのかは、まだ不明だ。同社はこの機能を「2022年まで、無料のプレビュー版」として提供するという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]