コンピューターが生成した偽の動画、いわゆるディープフェイクと本物の動画をコンピューターに見分けさせるのは困難だ。Facebookが開催したコンテストの結果はそれを示すものとなった。参加者2114人が合計3万5000のディープフェイク検知用コンピューターモデルを提出したこのコンテストでは、成功率が最高で83%だった。
ただし、これらの成功率は、Facebookがコンテスト「Deepfake Detection Challenge(DFDC)」のために制作した動画10万本の公開データセットを使った結果だ。一方、これまで非公開であり、判定をより難しくする手法を用いた別の動画1万本では、成功率は最高で65%だった。
AI技術は、人の音声の書き起こし、スパムの検出、ゴッホのようなスタイルを自撮り画像に適用するエフェクトの追加といった、これまでコンピューターでは困難だった多くのタスクの自動化を実現している。一方で、同じ技術がディープフェイクの生成に利用される恐れもあり、例えばある人の話し方などの特徴をほかの人の動画に合わせるといったことが可能になる。選挙候補者が失態を犯したかのような動画が、誤りを正さずにネットで拡散すれば、問題となる恐れがある。
Microsoft、Amazon、Facebookとマサチューセッツ工科大学、オックスフォード大学、コーネルテック、カリフォルニア大学バークレー校など複数の大学は2019年9月、共同でDFDCを立ち上げた。主催者らは3500人の俳優を雇って基になる動画を撮影し、これらをさまざまな方法で改変することで、コンテスト参加者が各自の人工知能(AI)モデルのトレーニングに使える動画10万本を生成して公開した。俳優は、性別、肌の色、民族、年齢など多様な特徴を代表するように選ばれたとFacebookは説明した。
2020年11月の米大統領選挙に向けたキャンペーン中にフェイク動画が有権者をミスリードしかねないという懸念がある中、DFDCの結果は重要だ。たとえディープフェイクの多くが説得力に欠け、検出されるとしても、ディープフェイクの存在自体が有権者の動画に対する信頼を損なわせ、選挙を妨害することになりかねないと専門家は懸念する。
Facebookは、他の手がかりがディープフェイク対策に役立つ可能性があると考えている。
「研究コミュニティーがコンテストの結果を踏まえた開発を目指す中、われわれはさらに視野を広げ、画像と動画の分析にとどまらない解決策を検討すべきだ。背景や発信元など他の兆候を確認することが、ディープフェイク検知モデルの向上に役立つ可能性がある」(同社)
DFDCの主催者らは、この分野における新たな取り組みに役立てる目的で、38日分の再生時間に相当する未加工の動画素材をリリースする計画だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」