映画「ザ・ビートルズ:Get Back」--ディープフェイクは必ずしも悪ではない - (page 2)

Jason Perlow (ZDNET.com) 翻訳校正: 編集部2021年12月15日 07時30分

 その結果は驚くべきものだった。Jackson監督は、粒子が粗く、彩度の低いフィルムをコンピューターアルゴリズムで修正した。その結果、映像は明るく鮮やかになり、1969年ではなく、昨日撮影されたかのように鮮明になった。このフィルム修復は技術的な勝利だ。だが、それよりもさらに印象的なのは、音声だ。Jackson監督はVarietyのインタビューで次のように語った。

 「私にとって、音声復元が最も刺激的だ。われわれはオーディオ技術で大きな進歩を遂げた。機械学習システムに、ギターの音、ベースの音、声がそれぞれどんなものかを教え込んだ。John(Lennon)の、Paul(McCartney)の、聞こえ方を教えた。これにより、それぞれの音をモノラルトラックとして取り出してすべての楽器を分割したので、ボーカルだけやギターだけを聴けるようになった。例えば、Ringo(Starr)が後ろでドラムを叩いているのが見えていても、ドラムの音が全く聞こえないようにできる。この技術で実にクリアにリミックスできるようになった」

 ここで使われている機械学習技術は、これまでディープフェイクに使われていた偽動画と音声をリアルにする技術と(全く同じではないにしても)非常によく似ている。ディープフェイクの典型的な例は、マサチューセッツ工科大学(MIT)のCenter for Advanced Virtualityが制作したエミー賞受賞のデモ動画「In Event of Moon Disaster」(月面での大惨事)だ。Richard Nixon大統領(当時)がアポロ11号の宇宙飛行士が事故で死亡するという声明文を読んでいる様子を描いている。MITはこの動画制作のために、Nixon氏が出演したテレビの映像の同氏の画像と音声を機械学習システムに与えて動画と音声を合成した。こうして不気味で不思議な映画が生まれた。

 この映画は、機械学習などのテクノロジーが悪用される可能性があると警鐘を鳴らした。Coalition for Content Provenance and Authenticity(C2PA:コンテンツの来歴と真正性のための連合)などが現在進めている取り組みは、デジタルメディアのコンテキストと履歴を提供する標準を作成し、特定の画像や動画、音声の信頼性を証明できるようにするというものだ。こうしたテクノロジーは将来さらに頻繁に使われることが予想されるからだ。

 ディープフェイクのテクノロジーが悪用されることはあるだろう。だが、「Get Back」が何かを証明するとしたら、それはディープフェイクが“ディープ復元”にも使えるということだ。大量の貴重なコンテンツをこの方法で復元できる。過去の映画やドキュメンタリーをふたたび真新しく見せることも、Disney+のようなコンテンツ配信プラットフォームがこれまでで最も新鮮なものを見せることもできるのだ。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]