「それはロボットがしたことです」は認められる?--AIと法律の専門家に聞く - (page 2)

Danny Palmer (ZDNET.com) 翻訳校正: 川村インターナショナル2017年02月10日 07時00分

 責任の所在がどこか、についてはある種の電子的な人格を考慮に入れる必要があるかもしれない。Beck氏が言うところの「実際的な解決策」だ。

 「機械を人と見なすことはないとしても、実際のところそれが機械を扱う法律上の概念だ。それは間違いない。社会にとってそれで十分かどうか、私にはわからないが、そこが出発点になる」(Beck氏)

 一方、責任の一部はやはり開発者が負うべきという意見もある。たとえAIが不慮に過ちを犯すことがないとしても、公開された後で誤ったトレーニングを受けてしまうことがあるからだ。MicrosoftのAIチャットボット「Tay」が、一般ユーザーの会話から学習した結果、人種差別主義的な発言をして不評を買ったのも、その一例だった。

 あるいは、AIが学習素材として限られたデータセットしか持たない場合に、問題が起こる可能性がある。顔認識機能が、特定グループの人の画像でしかトレーニングされないといったことだ。

 テクノロジ案件を中心に扱う国際的な法律事務所Bird & BirdのパートナーであるRoger Bickerstaff氏は、次のように述べている。「プログラミング自体は、あらゆる意味で完璧にできるかもしれない」

 「しかし、ソフトウェアが、自身が接するデータセットから学習している場合は、そこから誤った結論を導き出すこともあり、そもそも学習に使われるデータが誤っているおそれもある」(Bickerstaff氏)

 いずれにしても、やはり判断の難しい領域だ。「ロボットが周囲の環境から学習するなら、プログラマーの責任と所有者の責任をどう切り分ければいいのか」とHaggard氏は問う。

 その場合、人間が飼い犬についてどう責任を持つべきかということを参考にするのが、少なくとも今のところは、正しい方向への一歩と言えそうだ。しかし、AIと責任能力に関する議論は、機械の知性がさらに高まり、われわれの生活でいっそう多くの役割を担うようになる中で、今後も続いていくだろう。

figure_1
提供:iStock

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]