Facebook、AI研究プロジェクト「Ego4D」--ARメガネに1人称視点の動画を活用へ

Queenie Wong (CNET News) 翻訳校正: 湯本牧子 吉武稔夫 (ガリレオ)2021年10月15日 11時57分

 Facebookは、人工知能(AI)を搭載した拡張現実(AR)グラスなどのデバイスを装着したままで、ドラムの演奏を学んだり新しいレシピをさっと調理したりする未来を思い描いている。同社がこうした未来を実現するには、人間の目を通してモノを見るAIシステムが必要になる。

Facebook
FacebookはARグラスに取り組んできている
提供:Getty Images

 Facebookの主任リサーチサイエンティストであるKristen Grauman氏は、「これは、適切なタイミングで情報を提供したり、記憶を呼び起こす手助けをしたりすることにより、日常生活でわれわれの役に立つ可能性のあるウェアラブルデバイスが実現した世界だ」と述べている。この技術は最終的に、われわれの行動を分析し、鍵など置き忘れた物を探すのにも使えるという。

Facebook
Facebookによると、1人称視点の動画を分析することはコンピューターには難しいという
提供:Facebook

 しかし、そのような未来はまだ先のことであり、9月に発売されたFacebookのスマートグラス「Ray-Ban Stories」はAR機能を搭載していない。今後の課題としては、人が自らの視点で撮影した写真や動画をより深く理解できるようにAIシステムに学習させることで、人がAIを活用して重要な情報を記憶できるようにすることなどがある。

 Facebookは、13の大学や研究所と協力して750人を採用し、2年間で2200時間以上に及ぶ1人称視点の動画を撮影してもらったという。参加者の居住地は、英国、イタリア、インド、日本、サウジアラビア、シンガポール、米国、ルワンダ、コロンビアで、スポーツや買い物、ペットの観察、ガーデニングなど、自分自身の日々の活動を撮影してもらった。撮影には、GoProのカメラ、スマートグラス「Vuzix Blade」、動画撮影用サングラス「zShades」など、さまざまなウェアラブルデバイスが使われた。

 Facebookの研究チームは11月以降、この豊富なデータへのアクセスを要請できるようになる。Facebookによると、これらのデータは筋書きのない1人称視点の動画コレクションとしては世界最大級だという。この新たなプロジェクト「Ego4D」(Egocentric Live 4D Perception)により、テクノロジー企業がARや仮想現実(VR)、ロボット工学といった技術の改良を通じて、われわれの日常生活でより大きな役割を果たすことになる可能性が垣間見える。

さまざまな国で洗濯や料理をする様子
さまざまな国で洗濯や料理をする様子は、動画の中でそれぞれ違って見える
提供:Facebook

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]