Facebookは、人工知能(AI)システムを改善してバイアスを減らし、公平性を高める取り組みの一環として、新たなデータセットを公開していると明らかにした。
AIは既に、自動運転車から顔認識機能まで、さまざまな製品で利用されている。テクノロジーは人々の生活を便利にできるとはいえ、人権団体はバイアスのあるAIがマイノリティを傷つけかねないという懸念を表明している。例えば、顔認識技術は女性や肌の色が濃い人々の識別が苦手だという研究結果がある。
こうした問題の一端は、技術者がシステムのトレーニングに使うデータにある可能性がある。
FacebookのAI研究者は、ブログで次のように述べている。「こうしたバイアスがAIシステムを訓練するためのデータに入り込む可能性があり、不公平なステレオタイプが強化され、個人や集団にとって有害な結果をもたらす恐れがある。業界全体で今起きている差し迫った課題だ」
FacebookはAIの公平性とバイアスの問題に取り組むため、さまざまな年齢、性別、肌タイプの米国在住者3011名以上に報酬を支払い、さまざまな話題について話してもらったり、時にはいろいろな表情を示してもらったりしたという。Facebookが新たにリリースしているデータセット「Casual Conversations」には、台本のない人々の会話が録画された総計4万5186本の動画が含まれている。
サードパーティーがラベル付けした情報や機械学習モデルを利用して推測した情報ではなく、自分の年齢と性別を明らかにしている参加者に関するデータセットであるため、より正確だと考えられる。FacebookのAI担当リサーチサイエンティストCristian Canton Ferrer氏は、公開されているデータベースの画像を利用するのではなく、参加者はAIの改善のためにデータを提供する意志があることを確認されていると話した。また、自身の情報を削除する選択肢も与えられているという。
訓練されたアノテーターのグループは、参加者の肌の色調や周囲の光の状態にもラベル付けした。動画で肌の色の見え方に影響を与える可能性があるためだ。Canton Ferrer氏は、Facebookの動画チャットデバイス「Portal」を利用している。AIを搭載したカメラが薄暗い部屋で肌の色が濃い人を追跡することが難しいかどうかを研究者が評価する場合に、このデータセットが役立つだろうと同氏は述べた。また、人々の話し方にさまざまなアクセントがあるため、スマートスピーカーが聞き取ることが難しい場合もある。
Canton Ferrer氏は、「これは最初の第一歩だ」と述べ、「公平性はとても複雑で分野横断的な問題であり、1つのデータセットだけで答えを出せるようなものではない」と話した。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス