「メタバース」におけるアドビの役割--活用が進む分野と見えてきた課題

 「メタバース」という言葉が大きな話題となっている。私たちの周りに少しづつ変化の兆しが見え始めているが、実際にはどこがどう変化しており、どうなっていくと捉えればいいのだろうか。

 コンテンツの制作に欠かせないさまざまなサービスを提供するAdobeで、Vice President, Fellow, Head of Augmented Realityを務めるStefano Corazza氏に、メタバースの活用が進む分野、今後の展望などを聞いた。

AdobeでVice President, Fellow, Head of Augmented Realityを務めるStefano Corazza氏
AdobeでVice President, Fellow, Head of Augmented Realityを務めるStefano Corazza氏

メタバースを紐解く--ARとVRは違う

——「メタバース」がブームの兆しを見せていますが、アドビとしてどう捉えており、どう関わっていくのか、大きな方向性をお聞かせください。

 確かに、メタバースがバズワードのようになっていると感じます。その中でのアドビの役割はまず、メタバースを紐解くことにあるでしょう。どんなカテゴリーがあり、何ができるのか――つまり、VRのメタバースとARのメタバースは別物ということを知ってもらう必要があります。VRのメタバースが仮想世界を表現するものである一方で、ARのメタバースは、われわれがこの惑星で生活している上にデジタルコンテンツをレイヤーとして乗せていくものである、という違いです。アセットクリエーションツールを提供するアドビとしては両方の取り組みを支えていきますが、ARがやや成熟していると感じています。

——アドビのサービスという観点では、具体的にどうサポートされているのでしょうか。

 「Adobe Aero」では構築からその体験までを一貫して提供しています。VRの先を行っていると言えるでしょう。

 VRにおける3Dオブジェクトの制作では、さまざまなツールを提供しています。「Adobe Substance 3D」では、テクスチャやマテリアルの制作、デスクトップやVR環境向けの3Dモデリングなどを充実させています。いずれパブリックベータ版を公開する予定です。また、アニメーションのアセットという意味では、2年前から「Adobe After Effects」で、3Dをサポートしています。

 これらのほか、Aeroに特化した新しいサービス、機能などを提供していきます。ローディングの高速化や、その取り込みにかかった時間の分析など、クリエーターにとって重要な情報を取得できるようにする予定です。

 また、今後メタバースが広がると、そういったツールを使ってこなかった人たちが作成しなければならない場面も出てきます。「Adobe Stock」では3Dのモデル、マテリアルなどを用意しています。Substance 3Dも同様で、ダウンロードして使っていただける状況になっています。こういった要素は今後どんどん増えるでしょう。技術的なスキルがなくてもオブジェクトをゼロから作らずにそのまま使えるような環境を整えていますし、これからも充実させていく予定です。

——コンテンツを作る機会は今後、ますます増えていきそうです。アドビとしては、どういったユーザーがどれくらい増えると捉えていますか。

 今後増えるであろうユーザー層はまだ測りかねるところが多いのですが、まず若い世代、これからクリエーターになろうとしている世代が挙げられるでしょう。学生や卒業したばかりの方々の中には、メタバースに慣れていてその制作に入りやすい方も多くなるかもしれません。そういった方々が学習しやすいチュートリアルなどにも注力しています。今後メタバースがインターネットと同規模程度になるとすると、より多くの人々がコンテンツを作るようになります。

 どんなユーザーが増えるにせよ、2021年の12月に出した「Creative Cloud Express」は、すべてのコンテンツを対象としているため、より多くの方々のお手伝いができると考えています。従来のモバイル向けとウェブ向け、また今後増えていくメタバース向けを含め、すべてをカバーできるコンテンツの制作をサポートします。

 一方、メタバースに特化してサポートできる仕組みも用意しています。アセットにおける総合運用性の担保や、双方向性などをパッケージ化してメタバース間で使ってもらえるようにする、といったことに取り組んでいます。

 デバイスという観点では、ARグラス、VRヘッドセットなどさまざまな製品が登場していますが、多くの人が使う、メインストリームのデバイスはすべてサポートしていく予定です。

一歩先行く「教育」分野の活用例--見えてきた課題とは

——まだまだこれからの部分も多いとは思いますが、その中でも具体的に進めている分野、取り組みなどがあれば教えてください。

 一番注力している分野は教育です。たとえば、英国のスミソニアン博物館とコラボレーションし、サンゴの標本のスキャンなどからコンテンツを制作した取り組みには、Adobe Aeroを活用しています。


 アート以外の分野としては、こういった教育、学習コンテンツのユースケースが多いですね。また、ユーザー層が若いという部分が念頭にあるので、Adobe Aeroはモバイル版は無料、デスクトップ版も無料のベータ版という位置づけです。しばらくこの提供方法は変えないつもりです。

 大きな課題への取り組みという観点では、コンテンツのリッチ化、またそれとともに増えるデータ容量への対応があります。

 制作されたコンテンツに可能な限り忠実にすべく、現実世界の光の属性を正確にモデル化してグラフィックをレンダーする、物理ベースレンダリング(PBR:Physically Based Rendering)システムによるマテリアルサポートに注力しています。一方、ネットワークが低帯域な場合、最初は低解像度で表示して徐々に高解像度にしていく、ということも考えています。

 さまざまなデバイスかつネットワーク環境もバラバラという中で、われわれとしてはマルチスケールのソリューションを用意して、適切なコンテンツを適切なデバイス、適切な帯域に合わせて提供していかなければならないと考えています。

——クリエーター自らの作業負担を減らす仕組みを用意しているということですね。メタバースになると、他にはクリエーターの何が変わるのでしょうか。

 大きい部分としては、トレードオフが発生するというところです。2Dだったイメージが3Dアセットに移ると、メモリーのフットプリントがかなり増えます。すなわち、クオリティを取るか、ロードタイムを取るか。全体に大きく関わるので、クリエーターへの周知に注力しています。また、Adobe Aeroの中にガイダンスを加えていきます。どれだけ重いかを伝え、場合によって最適化を促すような仕組みです。

 もう1つ、メタバースのコンテンツになると、どんな距離、アングルからでも見えることになります。映画や動画を作る場合ではカメラのアングルは固定されていますが、メタバースの世界では、誰でも、どんなアングルからでも見られる。すべてのアングル、すべての距離から見てもらったとしても良いコンテンツを作る必要があります。

 内容などにもよりますがたとえば、ゼロから作る場合の具体的な制作期間としては、3Dのモデルを完成させるのに1~2日、複雑なものであれば1週間、更にテクスチャをつけていくというとこで数日必要、となるでしょう。

 ただ、これからは多くの人がゼロから作るというよりは、あるものに手を加える、ダウンロードして手を加えるというアプローチに変わっていくと思います。つまり、コンテンツをリミックスするという感じになるので、よりさまざま人が手がけやすくなるでしょう。

——日本では、クリエーター自身が作ったアバター、ファッションなどを販売する動きが活発化しています。アドビとして考えているサポートはありますか?

 今のところ、メタバース向けのマーケットプレイスは用意していませんが、NFTには対応していきます。真正性のサポートに加え、どこへでも追跡可能になるので、メタバースを跨いで作品を提供できます。

 多くの人々が自分のアバター作るようになると、メタバース間で移行できる、デジタルアイデンティティも重要になります。今後のメタバースの方向性を考えたとき、自分のコンテンツをポーティングできるならどんな技術でも受け入れる、となっていくでしょう。アドビとしても2022年の後半、Adobe Aeroのアプリをインストールせずにコンテンツが見られるようにする予定です。

 また、メタバース内でのクラウドサービスも考えています。コンテンツを管理するサービスです。「Adobe Experience Cloud」で提供している分析、コンテンツのホスティング、お客様とのエンゲージメントを高めるといった機能が、自然な形でメタバース側のエクスペリエンスにも広がっていくことになると考えています。

——最後に、日本におけるメタバースはこれからどうなっていくと捉えているか、もし特徴的な部分があればお聞かせください。

 教育、学習の次に進んでいる分野として、ARとロケーションを紐付けたところでのさまざまな活用例が見られます。たとえば、ツーリズムやサイネージ、店舗内外における体験などです。モバイルがAIを駆使して世界を深く理解できるようになればなるほど、それに合わせてさまざまな分野で活用が進むでしょう。ARでQRコードを読み、メニューを見てものを買う、という以外にも、複雑な処理ができるようになると思います。バーチャルの人間がARで出てきて日常的なタスクを手伝う、デジタルコンパニオンの仕組みもすでに出てきています。

 日本は未来思考な取り組みに関して常に先を行くイメージがあります。「たまごっち」「ASHIMO」などもありましたね。デジタルコンパニオンなどの分野ではより進んでいくように思います。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]