NVIDIA、骨格や筋肉まで再現するリアルな3Dアバター構築エンジンを発表

Stephen Shankland (CNET News) 翻訳校正: 湯本牧子 高森郁哉 (ガリレオ)2022年08月10日 12時17分

 Amazonの「Alexa」やAppleの「Siri」といったデジタルアシスタントと、音声で対話することに慣れている人は多いだろう。一方、NVIDIAは、これらの音声にデジタルの顔を持たせるべきだと考えている。

Nvidiaによる3Dモデル構築ツールによる作成された顔
アバターは人間の骨格と筋肉を含む3Dフレームワーク上で構築される
提供:Nvidia、screenshot by Stephen Shankland/CNET

 NVIDIAは米国時間8月9日、「NVIDIA Omniverse Avatar Cloud Engine(ACE)」を発表した。会話する人間の3Dモデルを構築するツールで、NVIDIAはコンピューター画面内のアバターと対話するだけでなく、おそらくはメタバースで他のユーザーと交流する手段にすることも目指している。

 このツールは、3Dグラフィックスと人工知能(AI)の技術でNVIDIAが持つ知見を活用している。こうした技術は、コンピューターが自然言語を理解してやりとりする方法を革新してきた。NVIDIAの最高経営責任者(CEO)を務めるJensen Huang氏は、カナダのバンクーバーで8月8日から開催されているコンピューターグラフィックスの年次カンファレンス「SIGGRAPH」で、このACEを披露した。

 ACEで実現するような高度なアバターは、コンピューターとの相互作用における次のステップとなる。Meta PlatformsやNVIDIAなどメタバースを推進する各社は、誰もが3Dデジタルの世界に住むようになる未来を目指しており、そこでは人間の顔をしたアバターが、投資の管理、物件の内覧、編み物のレッスンなどを助けてくれるかもしれない。

 NVIDIAのシミュレーション技術担当バイスプレジデント、Rev Lebaredian氏は記者会見で、「これらのロボットは、(中略)われわれが現実の世界と区別できなくなるような仮想世界を作るために必要なものだ」と述べた。同氏によると、アバターは「チューリングテストに合格する途上にある」という。つまり、私たちは将来、自分の話している相手が人間なのかロボットなのか判別できなくなるということだ。

 NVIDIAは、アバターを単に動きのある顔を持つだけでなく、完全に自立したロボットとして、起きていることを認知し、自らの知識を駆使して行動する存在にすることを目指している。そうした賢さにより、アバターはメタバースにおけるインタラクティブ性に優れたエージェントになると、Huang氏はSiggraphの講演で語った。

 「アバターは将来、仮想世界で普及し、人間による創作や構築の支援、ブランドアンバサダーやカスタマーサービスへの従事、ウェブサイトでの検索サポート、ドライブスルーでの注文受付、退職金や保険のプラン提案、といったことを担うようになる」(Huang氏)

NVIDIAが作成したアバター
NVIDIAが作成したアバター
提供:NVIDIA

 NVIDIAはアバターを改良するため、「Audio2Face」というAI技術を開発し、アバターの表情と言葉を整合させている。関連する「Audio2Emotion」ツールは、言葉に含まれる感情の評価に応じて表情を変えるもので、開発者はアバターの感情を高めたり、穏やかな状態にしたりできる。

 アバター技術担当シニアディレクターのSimon Yuen氏によると、アバターはすべて人間の骨格と筋肉を含む3Dフレームワーク上に構築されているという。これにより、アバターのモデルに人物の写真をドラッグすると、その人物の3Dモデルが短時間で作成される。さらに、髪の毛を一本一本作成したり、髪をカットしてスタイリングしたりすることも可能だとしている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]