Googleは、米国防総省との軍事関連プロジェクト「Project Maven」に関する契約をめぐって従業員の反発を受け、人工知能(AI)の利用に関する倫理ガイドラインの発行を約束したと報じられていた。このプロジェクトはAI技術と画像認識技術に関するものだが、その成果がドローン兵器に利用される可能性があると危惧されていた。
この度、そのガイドラインが明らかになった。
Googleの最高経営責任者(CEO)を務めるSundar Pichai氏は米国時間6月7日、ブログ記事で、「これだけ強力な技術になると、その利用に関して同様に強力な問題が生じることを認識している。AIをどのように開発して利用するかは、今後長年にわたって社会に重大な影響を与えるだろう」と述べた。「AIのリーダーとして、これを正しく進める重大な責任を感じている」(Pichai氏)
同社は「全般的に害を及ぼす、またはその恐れのある技術」、害を与えることを目的とした兵器、「国際的に受け入れられている規範に反する」監視技術、「広く認識されている国際法や人権の原則」に違反する技術を開発しないとPichai氏は述べた。
ただし同社は、軍事事業や、各国政府との他の分野での協力は続行するとPichai氏は述べている。
Pichai氏は、これらを厳格な規則ではなく「原則」として挙げている。AIに関する倫理は、同社に混乱を招き、重大な問題となっていた。
Googleの新しいガイドラインは、AIの開発に今後携わる技術業界全体を方向付けるものになる可能性がある。同社の姿勢は、軍との業務に関するポリシーを構築する他の企業に影響を与えることも考えられる。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」