グーグル、AI利用に関する原則示す--兵器などに使わない方針

Richard Nieva (CNET News) 翻訳校正: 編集部2018年06月08日 09時35分

 Googleは、米国防総省との軍事関連プロジェクト「Project Maven」に関する契約をめぐって従業員の反発を受け、人工知能(AI)の利用に関する倫理ガイドラインの発行を約束したと報じられていた。このプロジェクトはAI技術と画像認識技術に関するものだが、その成果がドローン兵器に利用される可能性があると危惧されていた。

 この度、そのガイドラインが明らかになった。

 Googleの最高経営責任者(CEO)を務めるSundar Pichai氏は米国時間6月7日、ブログ記事で、「これだけ強力な技術になると、その利用に関して同様に強力な問題が生じることを認識している。AIをどのように開発して利用するかは、今後長年にわたって社会に重大な影響を与えるだろう」と述べた。「AIのリーダーとして、これを正しく進める重大な責任を感じている」(Pichai氏)

 同社は「全般的に害を及ぼす、またはその恐れのある技術」、害を与えることを目的とした兵器、「国際的に受け入れられている規範に反する」監視技術、「広く認識されている国際法や人権の原則」に違反する技術を開発しないとPichai氏は述べた。

 ただし同社は、軍事事業や、各国政府との他の分野での協力は続行するとPichai氏は述べている。

 Pichai氏は、これらを厳格な規則ではなく「原則」として挙げている。AIに関する倫理は、同社に混乱を招き、重大な問題となっていた。

 Googleの新しいガイドラインは、AIの開発に今後携わる技術業界全体を方向付けるものになる可能性がある。同社の姿勢は、軍との業務に関するポリシーを構築する他の企業に影響を与えることも考えられる。

Google
提供:James Martin / CNET

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]