人工知能の「育て方」に見るマシンと人の共存、バイアスの懸念 - (page 2)

使い捨てされる人間のバイアスという懸念

 上記2つの例と対照的なのが、グーグルによるコンテンツ・広告関連の取り組みと感じられた。

 YouTubeに投稿された不適切な動画(たとえば過激な思想の宣伝や暴力シーンを含むものなど)に自社の広告が表示される懸念があるとして、米英の大手企業が出稿を見合わせるという出来事があった。また、それ以前にはいわゆる「フェイクニュース」の発信元に流れる広告収入を断ち切るために対応策をとるという発表がグーグルからあった。さらに、同社が検索アルゴリズムを調整したというニュースも出ていた。

 Wired記事によると、YouTubeでは現在、1日あたり約60万時間分の動画が新たにアップロードされているそうだ。それだけ膨大なデータをある程度きちんとチェックするには、何万人もしくは何十万人かの人手が必要となるが、もちろん現実的ではないため、できるだけ早期にAIを活用して……という事情がGoogleにはあるとされている。

 ただし、このチェックで実際に作業に当たる人たちはいわゆる孫請けーーグーグルの下請け会社がクラウドソーシングで集めた身分保証がない外注先であり、その立場にある人のものの見方(バイアス)が、結果的にAIの判断基準に紛れ込むリスクがあるとする識者の見方が上記記事では紹介されている。

 一方で「適度に作業者を入れ替えたほうが個々人のバイアスが入り込まなくていい」という見方をする人もいる。だが、似たような経済的境遇にいる人々ーーつまり、時給いくら、1件いくらで働き、昇給・昇進の見込みもないリモート勤務の人たちが入れ替わり立ち替わりやっている可能性も小さくなく、そう思うとやはりある程度同質のバイアスが生じても不思議ではない。

 グーグルが付加価値の低い仕事をする人間を何千人、何万人も自社で雇うとは考えにくいのだけれど、そういう人たちのものの見方や判断結果を栄養に育つAIのフィルターというのがどういうものになるのかが、少し気になった次第である。

【参照情報】

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]