グーグル、論文でAIを「肯定的」に見せるよう科学者らに指示か

Corinne Reichert (CNET News) 翻訳校正: 編集部2020年12月25日 08時18分
  • 一覧
  • このエントリーをはてなブックマークに追加

 Googleは自社の科学者らに対し、人工知能(AI)技術がより「肯定的」に見えるように研究論文を執筆するよう求めていたと、Reutersが米国時間12月23日に報じた。顔の解析や、人種、性別、支持政党などの問題を扱う前に、Googleの法務、ポリシー、および広報チームに相談し、「慎重な扱いが必要な論題」の審査を依頼することを研究者らに求める、新しい査読手続きが設けられていたとされる。

Google
提供:Stephen Shankland/CNET

 Reutersによると、このポリシーに関する社内ウェブページの1つには、「技術が進歩し、社外環境がますます複雑になるにつれて、害がなさそうなプロジェクトが、倫理、評判、規制、または法律に関する問題を引き起こす状況につながるケースが増えている」と書かれている。

 Reutersが確認した社内のやり取りによると、「肯定的な論調になるように細心の注意を払う」よう求められたGoogleの論文執筆者もいたという。

 今回の報道に先立ち、Googleの最高経営責任者(CEO)を務めるSundar Pichai氏は9日、AI研究者であるTimnit Gebru氏の離職時の対応について謝罪し、調査すると述べていた。2日に離職したGebru氏は、同僚に送った電子メールを理由に辞めさせられたとしていた。

 同氏のメールの全文を公開したPlatformerによると、その電子メールは、Googleによる多様性、公平性、包括性の取り組みを批判するものだったという。Gebru氏はメールの中で、執筆していた研究論文に関するフィードバックを受けた後に、その論文を撤回するように求められたとしていた。

 米CNETはGoogleにコメントを求めたが、回答はすぐには得られなかった。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]