写真の保存やバックアップができるアプリ「Ever」は、アップロードされた多くの画像を商用顔認識システムのトレーニングに使用したと報じられている。NBC Newsによると、問題は、Everがこのことをユーザーに公表しなかった点だという。
Everアプリにアップロードされた写真は、同社の顔認識製品「Ever AI」で使われるアルゴリズムのトレーニングに利用されていると、NBC Newsが米国時間5月9日に報じた。NBC Newsによれば、ウェブサイトを見てもはっきりと書かれていないが、Everは4月にプライバシーポリシーを更新し、顧客の写真の用途に関する情報を追加したという。Everのユーザー7人にインタビューしたところ、自分たちの写真が顔認識技術の構築に利用されていると知らない人がほとんどだったとNBC Newsは伝えている。
最高経営責任者(CEO)のDoug Aley氏はNBC Newsの取材に対して、Ever AIは、写真や個人を特定できる情報を顔認識技術の顧客に提供してはいないと答えている。
NBC Newsによると、Ever AIは、ソフトバンクロボティクスなどの民間企業と契約しているが、「法執行機関や軍、国家安全保障機関」とは契約を交わしていないという。
顔認識システムの開発者は、ソフトウェアプログラムに多くの写真を学習させて人の顔をどう認識するかを人工知能(AI)に教え、システムをトレーニングする。画像は多ければ多いほどいい。だが、一部の顔認識システム開発者は、ソフトウェアをトレーニングするのに十分な画像を所有しておらず、人々の同意なく勝手に画像を利用してきた。
これは、プライバシーの問題だ。オンラインに写真をアップロードする人々の中には、監視技術の開発に画像を利用されたくない者もいる。顔認識は警察、空港や店舗で使われており、議員らはこの技術がどのように運用されているかについて懸念を表明している。サンフランシスコの議員らは、市当局が顔認識を利用するのを禁止する米国初の都市になりうる条例案を提出した。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」