Microsoftは米国時間6月21日、同社の顔認識ツールへのアクセスを制限すると発表した。人工知能(AI)システムがもたらす可能性のある社会的リスクを理由として挙げている。
同社は「Responsible AI Standard, v2」(責任あるAIの基準 第2版)と題した27ページからなる文書を公開し、公平で信頼できるAIの実現に向けた目標を詳しく説明している。また、この基準に沿って「Azure Face API」「Computer Vision」「Video Indexer」の顔認識ツールへのアクセスを制限することも明らかにした。
「信頼できるAIシステムは、解決すべき問題に対する適切な解決策でなければならないと、われわれは認識している」と、Microsoftで責任あるAIの最高責任者を務めるNatasha Crampton氏は発表の中で述べた。同社は、「感情の状態を推測し、性別、年齢、笑顔、顔の毛、毛髪、メイクなどの属性を識別する」Azureサービスの提供を終了するという。
AIを利用した顔認識技術は、公民権やプライバシー保護の観点から、ますます大きな懸念となっている。同技術は、女性や肌の色が濃い人の認識精度が、他の対象と比べて特に低いことが、複数の調査で明らかになっている。このことは、同技術が犯罪容疑者の特定や監視目的に利用される場合、深刻な影響をもたらす恐れがある。AmazonやFacebookなど他の企業も、自社の顔認識ツールの提供を縮小または終了している。
Microsoftはさらに、公平で責任あるAI技術に関する基準を顔認識技術以外にも適用する。具体的には「Azure AI」の「Custom Neural Voice」で提供する音声テキスト変換技術もその対象とする。2020年3月に公開された学術調査の結果で、音声テキスト変換技術の誤認識率が、アフリカ系米国人や黒人コミュニテイーを対象とする場合に高くなることが明らかになっており、同社はこれを受けて問題の把握と解消に取り組んできたという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス