差別主義者と化したAIボット「Tay」からマイクロソフトが学んだこと - (page 2)

Asha Barbaschow (Special to ZDNET.com) 翻訳校正: 編集部2019年07月29日 07時30分

 「われわれはAIを構築する中で、人の役に立ち、サイバーセキュリティ強化に使えるAIではなく、バイアスを自動的に生成するシステムを作り出してしまうリスクを冒しそうになっている」

 Kelley氏にとっては、これを防ぐことは、公平性を考慮することを含む。

 同氏はその例として、人材採用ツールを挙げた。AIを、履歴書での候補の優劣判断に利用するというものだ。

 AIを、採用済み従業員全員の履歴書で学習させると、似たような人材を探すようにアルゴリズムを訓練することになると同氏は語った。

 「これは一見問題ないようだが、エンジニアリングや多くのコンピュータ関連の職、私が携わっているサイバーセキュリティの職も、もともと一方のジェンダーに偏っている。プログラミングの仕事もサイバーセキュリティの仕事も、既に職場にいるのは主に男性だ。サイバーセキュリティ関連の仕事の場合は、ほぼ9割が男性だ」

 「良い候補者」像をこうした既存の情報によって学習させれば、採用ツールは既にその職種に従事している人と同類の候補を探すようになる。

 「AIを扱う上で重要なことの1つは、信頼性と安全性だ。われわれは、重要な決定や、人ががんを患っているかどうかの診断などにAIを利用するようになっているのだから、AIが信頼できるものであることを確認したい」とKelley氏は続けた。 

 「もしがんの診断を受けて、がんではないと診断された後でがんだったことが判明したら、誰がその責任を負うのか?」

 「従って、こうしたすべての事柄を考慮に入れ、AIと機械学習を構築する必要がある」

 「AIと機械学習は、悪用に対しても耐性を持つ必要がある。Tayは人種差別主義者になってしまった。今後は、攻撃に対して耐性を持たせるようにしていきたい」

 Kelley氏は他の例として、手を洗うためのトイレのセンサーを挙げた。

 「センサーの設計者は自分の肌の色でテストした。だから、あまり包括的ではなかった。私のように肌が白ければセンサーはうまく作動したが、肌の色が濃いとうまく作動しなかった。それで、まったく包括的ではないシステムになってしまった」

 Kelley氏はまた、AIと機械学習の構築にはプライバシーと透明性も重要だと語った。

 データを利用される個人のプライバシーと、AIを使ったシステムがどんな働きをしているのかを一般に理解させるための透明性が重要だという。

 「これはテクノロジーに限った問題だけではなく、さらに大きな問題だ。また、構築するシステムが倫理的なものになるよう、システム構築には多様性のある人々のグループが必要になるだろう」と同氏は語った。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]