AIとARが結びつこうとしている。Googleは米国時間5月14日に開催した開発者向けイベント「Google I/O」で、新たなAIプロジェクト「Project Astra」を発表した。これはカメラの映像をスキャンして、常に周囲の状況を理解する技術で、次世代のスマートグラスやAIデバイスが目指す先の可能性を示しているように見える。
Googleは、Project Astraが「AIアシスタントの未来」であり、日常生活を助ける万能AIエージェントだと語った。目指しているのは、タイムラグなしに会話ができるエージェントだ。筆者はAIを搭載した「Ray-Ban Metaスマートグラス」を使ったことがあるが、見えているものについて質問したあと、答えが返ってくるまでに数秒はかかっていた。Googleが見せたProject Astraのデモでは、スマートフォンのカメラで常に周囲を撮影しながらユーザーが何かを尋ねると、ほとんど瞬時に反応が返ってきていた。
最近のAIガジェット(「rabbit R1」、Humaneの「Ai Pin」、Ray-Ban Metaスマートグラスなど)は、カメラで周囲を撮影して内蔵のAIで分析し、答えを返す機能を持っているが、通常はかなり処理が遅く、機能も限られている。Googleが示したAstraのデモは、それよりもはるかにキビキビと動作しているように見えた。
Googleは、スマートグラスでProject Astraが動いているところまでデモンストレーションしてみせ、さらなるウェアラブルAI製品の登場を示唆した。
Googleがすでにサムスン電子やQualcommと複合現実(MR)プラットフォームの開発に取り組んでいることを考えれば、カメラ付きのAIスマートグラスも開発しているのかもしれない。MetaのMark Zuckerberg氏やAndrew Bosworth氏が何年も前から述べているように、未来のXRデバイスを実現するために今欠けているのはAIだ。Googleも、この分野に参入する準備が整っているようだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」