Amazonの「Alexa」やAppleの「Siri」といったデジタルアシスタントと、音声で対話することに慣れている人は多いだろう。一方、NVIDIAは、これらの音声にデジタルの顔を持たせるべきだと考えている。
NVIDIAは米国時間8月9日、「NVIDIA Omniverse Avatar Cloud Engine(ACE)」を発表した。会話する人間の3Dモデルを構築するツールで、NVIDIAはコンピューター画面内のアバターと対話するだけでなく、おそらくはメタバースで他のユーザーと交流する手段にすることも目指している。
このツールは、3Dグラフィックスと人工知能(AI)の技術でNVIDIAが持つ知見を活用している。こうした技術は、コンピューターが自然言語を理解してやりとりする方法を革新してきた。NVIDIAの最高経営責任者(CEO)を務めるJensen Huang氏は、カナダのバンクーバーで8月8日から開催されているコンピューターグラフィックスの年次カンファレンス「SIGGRAPH」で、このACEを披露した。
ACEで実現するような高度なアバターは、コンピューターとの相互作用における次のステップとなる。Meta PlatformsやNVIDIAなどメタバースを推進する各社は、誰もが3Dデジタルの世界に住むようになる未来を目指しており、そこでは人間の顔をしたアバターが、投資の管理、物件の内覧、編み物のレッスンなどを助けてくれるかもしれない。
NVIDIAのシミュレーション技術担当バイスプレジデント、Rev Lebaredian氏は記者会見で、「これらのロボットは、(中略)われわれが現実の世界と区別できなくなるような仮想世界を作るために必要なものだ」と述べた。同氏によると、アバターは「チューリングテストに合格する途上にある」という。つまり、私たちは将来、自分の話している相手が人間なのかロボットなのか判別できなくなるということだ。
NVIDIAは、アバターを単に動きのある顔を持つだけでなく、完全に自立したロボットとして、起きていることを認知し、自らの知識を駆使して行動する存在にすることを目指している。そうした賢さにより、アバターはメタバースにおけるインタラクティブ性に優れたエージェントになると、Huang氏はSiggraphの講演で語った。
「アバターは将来、仮想世界で普及し、人間による創作や構築の支援、ブランドアンバサダーやカスタマーサービスへの従事、ウェブサイトでの検索サポート、ドライブスルーでの注文受付、退職金や保険のプラン提案、といったことを担うようになる」(Huang氏)
NVIDIAはアバターを改良するため、「Audio2Face」というAI技術を開発し、アバターの表情と言葉を整合させている。関連する「Audio2Emotion」ツールは、言葉に含まれる感情の評価に応じて表情を変えるもので、開発者はアバターの感情を高めたり、穏やかな状態にしたりできる。
アバター技術担当シニアディレクターのSimon Yuen氏によると、アバターはすべて人間の骨格と筋肉を含む3Dフレームワーク上に構築されているという。これにより、アバターのモデルに人物の写真をドラッグすると、その人物の3Dモデルが短時間で作成される。さらに、髪の毛を一本一本作成したり、髪をカットしてスタイリングしたりすることも可能だとしている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」