マサチューセッツ工科大学(MIT)が米国時間1月24日に公開した調査結果によると、Amazonの顔関連技術は、MicrosoftやIBMの競合技術と比べて、肌の色が濃い女性の性別を識別する精度が劣り、全体として性別の誤認識が多かったという。
調査によると、Amazonの「Rekognition」ソフトウェアは19%の確率で女性を男性と誤って認識したという。肌の色が濃い女性を男性と誤って認識した確率は31%だったとしている。これに対し、Microsoftのソフトウェアが肌の色の濃い女性を男性と誤認した確率は1.5%だった。
Amazon Web Services(AWS)で人工知能(AI)担当ゼネラルマネージャーを務めるMatt Wood氏は、この調査のテスト結果について、顔認識ではなく顔分析に基づくものだと述べている。同氏によると、顔分析は動画や画像に含まれる顔を見つけて、メガネをかけているかどうかなど、一般的な特徴を判断するものだという。顔認識は、個人の顔を動画や写真に含まれるイメージと照合する。Rekognition技術には、これら両方の機能が含まれている。
「法の執行を含むどのようなユースケースに対しても、顔分析を用いて得られた結果に基づいて顔認識の精度について結論を下すことは不可能だ」(Wood氏)
Wood氏はさらに、今回の調査ではRekognitionの最新バージョンを使用していないと述べている。Amazonが同様のデータでRekognitionの最新バージョンを使用したところ、誤ってマッチングするケースは確認されなかったという。
調査結果を執筆したDeborah Raji氏は、自分も共同執筆者のJoy Buolamwini氏も、顔認識と顔分析の違いについては理解していると述べている。
Buolamwini氏は25日のブログ記事の中で、企業が完全に正確なシステムを有していると主張する場合には鵜呑みにしない方がいいと、人々に注意を呼びかけた。
「Wood氏は、Amazonが100万を超える膨大な顔のベンチマークを使用して顔認識機能をテストしたところ、優れた性能を発揮したと述べている。ベンチマーク上の成果は称賛すべきもののように見えるかもしれないが、このベンチマークの詳細な人口構成や表現型(肌のタイプ)の構成はわれわれには分からない。そうした情報がなければ、人種、性別、肌の色などに偏りがあるかどうか評価を下すことはできない」(Buolamwini氏)
Amazonは、Rekognitionを法執行機関に提供している。人権団体や米議会議員のほか、Amazon自体の従業員らも、プライバシーについて懸念を示している。1月に入り、株主のグループがAmazonに対し、Rekognitionの技術を政府機関に販売するのをやめるよう求めていた。
MITの調査を踏まえ、Buolamwini氏は、Amazonがこの技術を当局に販売し続けることは「無責任」だと述べた。顔分析技術は乱用される可能性があり、大規模な監視につながる恐れがあると同氏は述べた。さらに、不正確な情報によって、罪のない人々が犯罪者だと誤認されることになる可能性がある。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」