ディープフェイクの音声をネズミが聞き分ける--オレゴン大が研究

Eric Mack (Special to CNET News) 翻訳校正: 編集部2019年08月16日 16時23分

 映画「ターミネーター」に登場する架空のコンピューター「スカイネット」が人工知能(AI)による人類滅亡の可能性を知らしめてから数十年たった今、ディープフェイクは死に至る危険性は低いものの、AIがもたらす非常に現実的な脅威を示している。一部の研究者は現在、意外な、そして明らかにアナログなツールを使って、AIによって加工された音声を検出している。そのツールとはネズミだ。

ドラマ『フルハウス』のディープフェイク動画からのスクリーンショット
俳優のNick Offermanは、このドラマ『フルハウス』のディープフェイク動画で不気味な少女になっている。
提供:Video screenshot by Bonnie Burton/CNET

 偽の音声や動画は数十年間にわたって何らかの形で存在しているが、最近は機械学習(ML)によって、いわゆる「不気味の谷」を通り越して本物と信じてしまうような偽のスピーチを生成することが、著しく容易になった。

 ディープフェイク技術は衰える兆候がないため、研究者らは偽物を検出するための最善のツールを探している。ツールに含まれるのは、人や別のAI、そして齧歯(げっし)類だ。

 「われわれはネズミが複雑な音声処理の研究における有望なモデルだと考えている」と、オレゴン大学神経科学研究所のJonathan Saunders教授率いる3人の研究者はホワイトペーパーで述べ、「哺乳類の聴覚系が偽の音声を検出する計算機構の研究によって、一般化が可能な次世代の偽物検出用アルゴリズムを開発できる可能性がある」とした。

 つまり、ネズミには人間と同様の聴覚系があるが、聞いた言葉を理解することはできないということだ。だがこの理解の欠如が、実際は偽のスピーチの検出においてプラスとなる可能性がある。ネズミの場合、単語の本当の意味を解読することに集中するあまり、偽物の明らかな兆候を見逃すということはあり得ないからだ。

 例えば、ディープフェイクの音声ファイルは「g」の音が「b」になっているなどの微妙な間違いを含んでいる場合がある。偽のスピーチである著名人が「hamburber」(ハンバーバー)を注文しているとしよう。人間は言い間違いやアクセントなどの矛盾のつじつまを合わせながら、聞こえた文から意味を引き出すことに慣れているため、こういった偽物を示す危険信号を見落としがちになる可能性がある。

 研究チームは、偽のスピーチの検出に役立つ可能性がある特定の子音を組み合わせた音を区別できるようネズミを訓練することに成功した。この研究は米国時間8月7日、ラスベガスで開催されたサイバーセキュリティ カンファレンス「Black Hat USA 2019」で発表された。

 ネズミは最大80%の確率でスピーチ音声を正確に特定した。この研究で人間がディープフェイクを特定できた確率は90%だったため、実のところネズミのほうが精度は低い。

 だが、ディープフェイクを特定できるよう齧歯類の大群を訓練することが狙いではない。研究者らはむしろ、ネズミが偽のスピーチと本物のスピーチを識別する際の脳の活動を監視し、脳の働きを理解したいと考えている。それを行ったうえで、ネズミから得た洞察を利用して新たな偽物検出用アルゴリズムを開発することが目標だ。

 それはおそらく、齧歯類が賢くなり、自ら独自の卑劣なディープフェイクを生成し始めるということではないと推測される。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]