グーグル、AIや機械学習モデルのバイアスへの対処目指す--「TCAV」技術など説明

Larry Dignan (ZDNET.com) 翻訳校正: 編集部2019年05月08日 11時42分

 Googleの最高経営責任者(CEO)Sundar Pichai氏は米国時間5月7日、同社の人工知能(AI)や機械学習(ML)のモデルからバイアス(偏り)をなくすことを目的とした、モデルをより透明化するための取り組みについて語った。

 同氏は、AIに対する数々の拡張や、より多くのデバイスにMLモデルを搭載する動きに関する概要を語ったが、開発者やデータ科学者にとってより重要なのは「TCAV」と呼ばれるテクノロジーだろう。TCAVとはTesting with Concept Activation Vectors(概念を有効化させる方向性を加味したテスト)の略だ。ひと言で説明すると、TCAVとはニューラルネットワークモデルが予測に使用している入力信号が何なのかを理解するうえで必要となる、解釈性をもたらすための手法だ。

 理論的には、入力信号を理解するTCAVの能力によって、男性の入力信号が女性のそれよりも重視されているかどうかや、人種や収入、地域といった問題を洗い出せるため、バイアスの存在を浮かび上がらせることができる。コンピューター科学者はTCAVを使用することで、高い価値を持つ概念がどの程度重視されているのかを把握できるようになる。

 透明性やバイアスの問題への対応は今後、企業や、モデルの多くをサービスとして提供していくクラウドプロバイダーにとって重要となる。

 TCAVはモデルの再訓練を必要とせずに、モデルを細かく精査し、該当モデルが特定の意思決定を行った理由を明らかにするという取り組みだ。例えば、シマウマを認識するモデルがある場合、それはより高次の概念を用いて判断している可能性がある。

Zebra model

 Pichai氏は、「すべての人の役に立つGoogleを築くこととはつまり、バイアスの問題に取り組むことだ。モデルがどのようにして動くのか、そしてそこにバイアスがあるのかどうかを把握する必要がある。われわれは透明性を向上させていく」と述べた。

 GoogleのAIチームは、モデルがよりハイレベルな概念を利用できるようにするテクノロジーであるTCAVに取り組んでいる。

 Pichai氏は、「まだやるべきことは多くあるが、すべての人にとって有効なものとなるようなAIを構築しようと尽力している」と話した。

 またGoogleは、「federated learning」という技術などを利用しており、使用するデータ量を減らし、ユーザーのプライバシーを強化しようと取り組んでいる。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]