ドイツの研究機関Max Planck Institute for Intelligent Systems(MPI IS)は、洋服の試着をアバターで仮想的に実行する際、アバターの動きに合わせて布の“しわ”を再現したり、体形の異なるアバターに着せて変化を確認したりできる技術「ClothCap」を開発した。
人の3次元(3D)スキャン結果をベースに仮想試着できるシミュレーション技術は以前から存在するものの、試着できる衣服が1つだけだったり、動きに制約があったり、再現性が低かったりと、不十分だという。特に、トップスとボトムスといった具合に複数の衣服を着る場合が多いことから、シミュレーションする際には衣服同士や着ている人を分離して扱う必要がある。
MPI ISの開発したClothCapでは、衣服を着た状態の人を3Dスキャンし、服とその下に隠れている体を分けて処理する。そのために、まず服を着たまま動く対象者の姿を60fpsの速度で3Dスキャンする、いわゆる4次元(4D)スキャンを実行。そうして得た情報から、複数の衣服と、服を着ていない状態の体に分けて動く3Dデータを生成することで、シミュレーションがよりリアルになるとしている。
その結果、体形を変えたり、ポーズを変えたりしても服を着た状態をリアルに再現する、仮想試着が可能になった。例えば、太らせた3D人体モデルに試着させるとしわの寄り方が変わるなど、対象者に合わせた仮想試着が実行できる。
また、人を写した1枚の写真から3D人体モデルを生成する技術と組み合わせれば、新たなポーズで仮想試着することも可能という。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス