グーグル、カメラに映る物を説明できる次世代AIアシスタント「Project Astra」

Scott Stein (CNET News) 翻訳校正: 編集部2024年05月15日 13時02分

 AIとARが結びつこうとしている。Googleは米国時間5月14日に開催した開発者向けイベント「Google I/O」で、新たなAIプロジェクト「Project Astra」を発表した。これはカメラの映像をスキャンして、常に周囲の状況を理解する技術で、次世代のスマートグラスやAIデバイスが目指す先の可能性を示しているように見える。

Project Astra発表の様子
提供:James Martin/CNET

 Googleは、Project Astraが「AIアシスタントの未来」であり、日常生活を助ける万能AIエージェントだと語った。目指しているのは、タイムラグなしに会話ができるエージェントだ。筆者はAIを搭載した「Ray-Ban Metaスマートグラス」を使ったことがあるが、見えているものについて質問したあと、答えが返ってくるまでに数秒はかかっていた。Googleが見せたProject Astraのデモでは、スマートフォンのカメラで常に周囲を撮影しながらユーザーが何かを尋ねると、ほとんど瞬時に反応が返ってきていた。

 最近のAIガジェット(「rabbit R1」、Humaneの「Ai Pin」、Ray-Ban Metaスマートグラスなど)は、カメラで周囲を撮影して内蔵のAIで分析し、答えを返す機能を持っているが、通常はかなり処理が遅く、機能も限られている。Googleが示したAstraのデモは、それよりもはるかにキビキビと動作しているように見えた。

 Googleは、スマートグラスでProject Astraが動いているところまでデモンストレーションしてみせ、さらなるウェアラブルAI製品の登場を示唆した。

 Googleがすでにサムスン電子やQualcommと複合現実(MR)プラットフォームの開発に取り組んでいることを考えれば、カメラ付きのAIスマートグラスも開発しているのかもしれない。MetaのMark Zuckerberg氏やAndrew Bosworth氏が何年も前から述べているように、未来のXRデバイスを実現するために今欠けているのはAIだ。Googleも、この分野に参入する準備が整っているようだ。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]