リモートワークの採用面接にディープフェイクを悪用する事例--FBIが警告

David Lumb (CNET News) 翻訳校正: 湯本牧子 吉武稔夫 (ガリレオ)2022年07月04日 13時48分

 ディープフェイクが広まりつつある中、企業にとっては求職者の審査が難しくなるかもしれない。米連邦捜査局(FBI)のインターネット犯罪苦情センター(IC3)は、見た目を変える技術を使って別人になりすましている者や、盗んだ個人情報を自分のものとして提出している者がいると警告している。

スーツを着て並んで座っている4人
提供:Getty Images

 FBIの公共サービス案内(public service announment)によると、これらの者はディープフェイク(人工知能を利用して、人が実際にはしていない行動や発言をしているように見せかける技術)を使って、情報技術、プログラミング、データベース、その他のソフトウェア関連職のリモートワークや在宅勤務の採用面接を受けていたという。特に咳やくしゃみをしたときに求職者の唇の動きや表情が音声と一致しなかったことから、デジタルトリックであることに雇用主側が気づいたようだ。

 ディープフェイクを使った求職者らは、身元調査をパスするために、他人から盗み出したPII(個人を特定できる情報)を提出していた。

 これは、2019年から広まったディープフェイクの最新の事例だ。ディープフェイクは、他人の顔や声をポルノなどの恥ずかしい映像に組み込んだり、政治的な混乱を引き起こしたりする恐れがある。

 Facebookが3月、ウクライナのVolodymyr Zelenskyy大統領に見せかけたフェイク動画を削除したように、ディープフェイクが政治利用される脅威は消えていない。欧州連合(EU)は6月、ディープフェイクを取り締まるために偽情報に関する行動規範を強化したが、採用面接のような場で日常的に利用されている実態は、この技術がいかに簡単に手に入り、利用できるかを示している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]