お使いのブラウザは最新版ではありません。最新のブラウザでご覧ください。

CNET Japan ブログ

仮想世界の最先端---アバターの感情表現を自動化する

2009/01/20 19:49
  • このエントリーをはてなブックマークに追加

プロフィール

殿岡良美

幻の博覧会「世界都市博覧会」で、インターネットを応用した公共イベント企画をプロデュースしたことが、ネットでの活動の出発点でした。しかし結果はご存知の通り。あるいはその未完の記憶が満ち足りない思いを私に残してしまったのか、ネットという愛すべきも、摩訶不思議で捉えようのないものに惹かれ続けてきました。リアルとネットが激しい火花を上げている今日。CNETでは、あらゆる前提や先入観にとらわれない視点から、BigBang的なIT論を展開したいと考えています。
ブログ管理

最近のエントリー

八丁堀にある内田洋行の「ユビキタス協創広場 CANVAS」は、大画面のスクリーンを備えた本格的なショールームがいくつもあり、しかもセカンドライフに同社が大変に力を入れていることもあり、これまでにも多くのSL関連の重要なイベントが開催されてきた。
そんなわけで私も時折お邪魔しているわけだが、去る1月19日に、国立情報学研究所(NII)のグランドプロジェクトである、Global Labのメンバーの方による仮想世界の最新技術を中心にしたプレゼンテーションがあり、お呼びいただいたのでオーディエンスとして参加させていただいた。プレゼンテーションはほとんど全てが英語で行われたため、通訳の方に奮闘していただいたにも関わらずどれだけをここで伝えられるかわからないが、SLの最先端のシーンを伝える内容だったと思うのでご紹介したい。

写真でもわかるように、CANVASの大スクリーンには、等身大アバターの表示が可能であり、自分とアバターが並んで立つことも可能だ。これは何度見ても、何とも不思議な気分を作り出す効果があり、ただ単に画面がでっかいだけじゃないかなどという感覚を超えたものがある。現実が仮想世界に引き込まれるようであり、スクリーンの向こうにそのまま仮想世界が続いているようでもある。米国人を中心にしたプレゼンテーターの方たちも、これは珍しいと見えて、セッションが終わった後で盛んに自分のアバターと記念写真を撮っていたのが印象的だった。

しかしながらセッションは開始前にいきなりハプニングに見舞われた。SLの急なメンテナンスが絡んでしまったらしく、グリッドにログインできないのである。これにはプレゼンテーターも、聴衆も苦笑い。なす術のない時間が過ぎていく。気の毒だったのは、同席されていたリンデンラボ日本支社のJason Linkさん。皆の視線をチラチラ感じながら会社に慌ただしく連絡を取ったりされていたが、結果的にはプレゼンの後半でログインが成功。それまで行った講演内容をもう一回グリッドで実演するという不規則な展開になったが、まあ繋がって良かった。米国では週末にメンテナンスをすることが多いので、日本時間の月曜日午前中のプレゼンは、こうしたことになる場合があるようなので、なるべく月曜日は避けたほうがいいかもしれない。Jasonさんによれば、大きなプレゼンテーションやイベントはあらかじめ連絡しておくことで、多少の配慮もしてもらえる場合があるそうだ。
まあ、よかったよかった。

それはともかく内容であるが、Global Labは2008年6月にスタートした、東京の国立情報学研究所(NII)のグランドチャレンジプロジェクトの一つであり、プロジェクトリーダーはヘルムト・プレンディンガー氏が務めている。ネットワークに接続するだけでいつでもラボに参加できること、また「バーチャルモビリティ」技術により環境に優し社会を構築することを目指していることを主軸に置き、特に仮想世界でのコラボレーションや技術開発に力を注いでいるようだ。

当日は、NIIのメンバーにより、以下の8つのプレゼンテーションがなされた。

  1.MPML3D:The World's First Agent Authoring Language for SL
  (世界初のSecondLife用エージェントオーサリング言語:MPML3Dによるデモ)

  2. SensorSim:SL as Testbed for Sensor-based Systems
   (センサーベースシステムのテストベッドとしてのSecond Life)

  3. EmoHeart:Automatic Emotion Expresssion in SL
    (SecondLifeにおける自動感情表現)
    

  4. AuGe:Automatic Gesture Generation in SL
(SecondLifeにおける自動ジェスチャー生成)

  5. Participatory Agriculture with a Controllable Field Server in SL
(SecondLifeにおける制御可能なフィールドサーバを備えた参加型農業)

  6. Participatory Agriculture with the Field Server from the National
Agricultural Research Center in Japan
    (日本の中央農業総合研究センターからのフィールドサーバを備えた参加型農業)

  7. Environment Markup Language: a Language for Creating Your Own
     Ecosystem
(環境記述言語EML:独自ののエコシステムを作るための言語)

  8. AstroSim: A Novel Educational Interface for Experimenting with
Computational Physics in a Shared 3D Virtual World
(共有3D仮想世界における計算物理学を用いた実験のための新しい教育用インターフェース)

 

全ての技術を紹介するには力も紙面も足りないが、この中でも特に驚いたのは、感情表現をアバターに自動的に生成させる試み(3,4)である。通常、SL上では感情表現はジェスチャーをアバターに適用することで表現する。それによってアバターは、ダンスをしたり、手をあげたり、お辞儀をしたり、叫び声をあげたりするが、言うまでもなくそれらは、時に応じて手動で当てはめなければならない。一連のジェスチャーが一続きになっているプログラム(AO=アニメーションオーバーライド)も存在するが、それも操作によっていちいち動作させなければならない。
ところがこの日紹介された、「EmoHeart」「AuGe」では、それらを自動的に生成させることが可能である。いずれも、チャットで表現されたテキストを自動的に解析し、アバターはほっておいてもその感情表現に適した表情や動作、ジェスチャーをしてくれる。チャットに専念しても、より適切でタイミングのあった深い感情表現をさせることができるわけだ。

ユニークなのは「EmoHeart」であり、まだ貧弱なアバターの表情をカバーするために、胸に埋め込まれた「EmoHeart」が自動的に表情を変えたり、感情の強さに合わせて大きさを変えたりして、アバターの感情表現を補完する。

 

 

EomoHeart
(感情表現を胸に埋め込まれたハート型のオブジェと表情で実現している)

 

AuGe
(チャットテキストにあった動作を、文章解析で自動的にパターンから選んでアバターに動作させる)

 

まさに仮想世界のコミュニケーションの最先端ともいえる技術であろうが、もちろんまだ実験段階であり、動作はぎごちない。しかしながら未来の仮想世界の方向について、しっかりと想像力を膨らまさせてくれる。欧米の研究員の方々なので、諸々でまだ日本語に対応していないことを申し訳なく思う・・というようなことを言われていたのだが、妙なノイズで発展の方向が迷走しているとも思われる、日本のセカンドライフ・仮想世界のシーン。「もうしばらく日本のことは忘れて英語圏でしっかり技術を確立してください。後からついていきますから」(笑)などと、卑下せざるを得ない部分もこちらとしては悲しく感じられた。

おそらく米国ではこうしたプロジェクトは無数に生まれているだろう。ここでも日本人は不動産モデルの崩壊という1フェーズに気を取られ、無駄に米国に遅れ、後から全力疾走で追っかけるのだろうか。やれやれ。

SecondLifeのオープンソース版であるOpenSIMも2年目を迎え、かなり大きなグリッドもSL外に生まれるようになってきた。技術の未来への適応に夢を描けない大人にはなりたくないものだ。そのために今立っているところをしっかり確認させてくれる素晴らしい機会だったと思っている。

 

 

※このエントリは CNET Japan ブロガーにより投稿されたものです。朝日インタラクティブ および CNET Japan 編集部の見解・意向を示すものではありません。
運営事務局に問題を報告

最新ブログエントリー