AI開発に求められる公平性と責任--グーグルの取り組み - (page 2)

Eileen Yu (Special to ZDNET.com) 翻訳校正: 川村インターナショナル2017年12月04日 07時30分

 Googleは、ユーザーが位置情報追跡の設定を無効にした後も、位置に関する情報を追跡していたことが先頃、明らかになった。米ZDNetはその件に言及して、ユーザーが求めるプライバシーの必要性と、機械学習モデルに入力するデータ収集の必要性の間で差し引きがあったのかと尋ねた。Dean氏はその件について直接コメントをすることは避けたが、現在起こっている多くの問題は、大量のデータの収集ではなく、コンピュータの計算能力の改善によって対応することが可能だ、と述べている。

 Googleは消費者データを利用して自社製品を改善したいと考えているが、消費者に自分のデータを制御する権限を常に与えている、と同氏はつけ加えた。

 Googleの親会社AlphabetのAI部門であるDeepMindは10月、「AIが現実世界に及ぼす影響を調査して、より深く理解する」ため、倫理および社会研究部門を設立している。

 DeepMindのページには、次のように書かれている。「テクノロジは価値中立的ではないため、テクノロジストは自身の研究の倫理的および社会的影響に責任を持たなければならない。DeepMindでは、すべてのAIアプリケーションは、人間の有意義な制御下にとどまるべきであり、社会に利益をもたらす目的のために使われるべきである、という前提が出発点になっている」

 今回のイベントでは、「Googleアシスタント」や「Google翻訳」を含むいくつかの注目製品やデモが披露されたが、それらと共に、医師による糖尿病網膜症発見を支援するインドでの取り組みも紹介された。症状発見のためには、通常年に1回の定期検査が推奨される。検査の際、医師は患者の目を撮影した画像を使って、病気の深刻度を評価する。

 しかし、一部の国では、そうした検査の訓練を受けた専門家の数が不足している、とGoogleのメディカルイメージングチームでプロダクトマネージャーを務めるLily Peng氏は語る。Peng氏によると、例えば、インドでは眼科医がおよそ12万7000人も不足しているため、45%の患者は診断が行われる前に失明してしまうという。

 Googleは機械学習ライブラリの「TensorFlow」でディープニューラルネットワークを訓練し、その検査を行えるようにした。具体的には、モデルに13万枚近くの画像と54人の医師による分析を入力し、診断を行った。テストでは、機械が下した診断は人間の医師による診断に非常に近かった、とPeng氏は述べている。同氏によると、そのアルゴリズムは現在、タイとインドにおいて臨床試験で検証されているところで、規制当局による評価も行われているという。

 注:本記事は、Eileen Yu記者(シンガポール在住)が、東京で開催されたGoogleのメディア向けイベント「Made With AI」に同社の招待を受けて出席し、米ZDNetに寄稿したもの。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]