Twitterが、人工知能(AI)の偏りから抜け出す新たな手段に着手した。それは、外部の人に報奨金を支払って問題発見を手伝ってもらうというものだ。Twitterは米国時間7月30日、同社の技術が写真を適切に処理していないことを報告してくれた人に最高3500ドル(約38万円)の賞金を提供する、コンテスト形式の新たな報奨金プログラムを詳しく説明した。
Twitterは5月、画像を自動的にトリミングするアルゴリズムに問題があることを確認し、このソフトウェアが黒人より白人を優先していたと結論づけた。Twitterが「顕著性アルゴリズム」と呼ぶこのトリミングの仕組みは、ユーザーがツイートをスクロールする際に、画像の最も重要な部分を切り抜いて表示することを意図したものだった。
アルゴリズムの偏りに対処するTwitterのアプローチは、外部の専門家やオブザーバーにアルゴリズムのコードとその結果を調査してもらうというもので、以前からセキュリティの脆弱性を報告してもらうために利用されてきたバグ発見報奨金プログラムを刷新する取り組みだ。Twitterはこのバイアス発見報奨金プログラムについて、業界初の試みであり、他社もこれに続くことを期待するとしている。プログラムの目的は、Twitter社内の取り組みを後押しすることだ。
Twitterの機械学習倫理、透明性、説明責任プログラムを担当するディレクターRumman Chowdhury氏は、「われわれは、倫理的なAIハッカーのコミュニティーの育成と創出に着手したい」と述べた。
アルゴリズムの偏りへの対処は、テクノロジーに関する懸念事項としてますます重要性が高まっている。ソフトウェアを効果的に学習させなければ、AIによって特定の属性の人々が軽視されたり、固定観念が助長されたりするなどの問題が生じるおそれがある。Twitterのプロジェクトは、象徴型危険性のような考え方に関して確固とした基準を定めることが目的だ。
AIを支えるアルゴリズムは、透明性を欠く場合や、学習データに含まれる問題がそのまま反映される場合がある。その結果、かつて「Googleフォト」で写真の中の黒人が「ゴリラ」とタグ付けされるなど、問題が生じている。
Twitterによるアルゴリズムのバイアス発見報奨金プログラムはHackerOneが運営を支援し、ルールの公開や応募の受付にあたる。Twitterによると、応募の締め切りは太平洋時間8月6日午後11時59分で、受賞者は8月8日に発表される。
AIの欠点は、さまざまな手法で悪用されるおそれがある。たとえば、特別に細工された画像によって、Twitterの顕著性ソフトウェアが知らないうちに外部からの攻撃に加担させられてしまう可能性もある。研究者らは、他のアルゴリズムにも偏りがないかどうかを調査したいと考えているかもしれない。これにはたとえば、Twitterがツイートを目立たせたり、ユーザーのフィードから削除したりする場合のアルゴリズムがある。ただし現在のところ、Twitterのバイアス発見報奨金プログラムは、画像のトリミングアルゴリズムに対象が限定されている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス