logo

AIを悪用する20の犯罪--危険度高には「ディープフェイク」も

Daphne Leprince-Ringuet (ZDNet.com) 翻訳校正: 編集部2020年08月25日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

 標的型フィッシングから新たなストーキング方法まで、人工知能(AI)は悪の手に渡ればさまざまな方法で悪用される可能性がある。ある研究者チームが、今後15年の間に起こるであろうAIを用いた犯罪を深刻度に応じて3段階にランク付けした。「危険度高」にはディープフェイクなどが分類されている。

 ある人の偽の言動を映像と音声で作り上げることにより、この技術は多様な害を及ぼす可能性があると研究者チームは述べた。ディープフェイクは、世論を操作するために公人の名声を傷つけたり、ビデオ通話で誰かの子供や親戚になりすまして資金を引き出したりすることに悪用できる。

 このランキングは、ロンドン大学ユニバーシティカレッジ(UCL)の科学者チームが2日間のセミナーの結果をまとめたものだ。このセミナーでは、チームが学術論文、ニュース、大衆文化に基づいて20種類のAIを使った犯罪をリストアップし、これらの犯罪について数十人の専門家がその深刻度について討論した。

 参加した専門家は、4つの基準(損害の大きさ、見込める利益の大きさ、実行しやすさ、防止や検出の困難さ)に基づいて、20の犯罪をランク付けするよう依頼された。

 ディープフェイクは、例えば殺人ロボットなどより厄介ではなさそうだが、非常に簡単に損害を与えることができ、検出と阻止が困難だ。そのため、専門家たちはAIを利用した犯罪の中で、ディープフェイクを危険度高と結論付けた。

 既に幾つかの国々で、民主主義を弱体化させるようなフェイクコンテンツの例がある。例えば米国では2019年、Nancy Pelosi下院議長が酔っ払っているように見える不正に加工された動画が、Facebookで250万回以上再生された。

 英シンクタンクのFuture Advocacyも2019年の総選挙中に、与野党の党首で首相候補のBoris Johnson氏とJeremy Corbyn氏が互いを首相に推すというフェイク動画を制作した。この動画自体は悪意のあるものではなかったが、ディープフェイクが国政に影響を与えるだけの潜在能力を有していることを印象づけた。

 UCLの研究者たちは、ディープフェイクがさらに洗練され、本物らしくなるにつれ、阻止するのは困難になるばかりだと述べた。幾つかのアルゴリズムが既にオンライン上のディープフェイクの検出に成功しているが、監視できないルートは数多くあり、ディープフェイクの拡散に利用されている。研究者たちは、ディープフェイクにより、多くの人々が音声と映像を信用しなくなるかもしれないとした。

 この他に5つの犯罪が「危険度高」ランクに位置づけられた。まず、近いうちに自動運転車が実用化されるが、無人自動車は爆弾を運ぶための手段、あるいは、無人自動車自体がテロのための武器として使われることが懸念される。また、AIによる虚偽ニュース作成も同じランクだ。この技術は既に存在しており、プロパガンダの社会的影響は軽視すべきではないと論文は強調する。

 AIの専門家は、AIによって本物と区別がつかないほど巧妙に作られたメッセージを使ったフィッシング攻撃や、ソーシャルメディアから大量の個人情報を集められるAIの能力を使う大規模な恐喝も挙げた。

 また、公共の安全や金融取引などの重要なシステムでのAI採用の増加したことに伴う、そうしたシステムへの攻撃機会を指摘した。犯罪やテロ目的でのそうしたAIシステムの破壊は、広範囲での停電、食品流通の崩壊、全国規模の混乱を招く恐れがある。

 「危険度中」にランク付けられた犯罪は8つ。これには、AI利用をうたう虚偽のサービスの販売や、洗練された学習ベースのサイバー攻撃などが含まれる。後者では、攻撃の前に多くのシステムの脆弱性をAIに調査させることができる。

 軍用ロボットの悪用やバイアスをかけるための意図的なデータベースの操作などの犯罪は、もっと危険度が高く評価されてもよさそうだが、これらも中程度とされた。

 「危険度低」ランクに入ったのは、偽レビューや偽アートなど、AIによる軽犯罪だ。論文では、家屋の郵便受けや猫用出入り口から密かに侵入し、第三者に情報を中継する窃盗ロボットについても言及している。

 窃盗ロボットは不気味ではあるが、簡単に阻止できる。郵便受けを柵で囲えば簡単に防げるし、規模の拡大は見込めない。したがって研究者たちは、これがしばらくは深刻な問題になることはないとみている。

 論文では、一旦開発されたら簡単に共有でき、繰り返し使われるAI採用の犯罪アプリケーションの危険性も指摘している。

 論文の第一著者、UCLのMatthew Caldwell博士は論文で次のように述べた。「従来の多くの犯罪と異なり、デジタル犯罪は簡単に共有され、繰り返され、販売すらされる。こうした性格により、犯罪技術は犯罪者にサービスとして提供される。つまり、犯罪者はAIベースの犯罪の難しい部分をアウトソースできるということだ」

 AIベースの犯罪の市場化はすぐそこまで来ている。Caldwell氏とそのチームは、「サービスとしての犯罪(CaaS)」の登場を予想する。

 リストアップされた犯罪の中には、他の犯罪より深刻な影響をもたらすものもある。以下は、UCLの研究者たちがまとめたAI犯罪のランク付けだ。

危険度高

  • ディープフェイク
  • 武器としての無人自動運転車
  • 高度なフィッシング詐欺
  • AI制御の基幹システムの破壊
  • 大規模恐喝
  • AIが生み出す虚偽ニュース

危険度中

  • 軍事ロボットの悪用
  • インチキツール
  • データポイズニング(学習データの操作)
  • 自律学習によるサイバー攻撃
  • 自律攻撃ドローン
  • オンライン活動へのアクセス拒否
  • 顔認識欺瞞
  • 金融あるいは株式市場の操作

危険度低

  • バイアス操作
  • 窃盗ロボット
  • AI検出の回避
  • AIによる偽レビュー
  • AIを使ったストーキング
  • 芸術や音楽などのコンテンツの偽造

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]