責任の所在がどこか、についてはある種の電子的な人格を考慮に入れる必要があるかもしれない。Beck氏が言うところの「実際的な解決策」だ。
「機械を人と見なすことはないとしても、実際のところそれが機械を扱う法律上の概念だ。それは間違いない。社会にとってそれで十分かどうか、私にはわからないが、そこが出発点になる」(Beck氏)
一方、責任の一部はやはり開発者が負うべきという意見もある。たとえAIが不慮に過ちを犯すことがないとしても、公開された後で誤ったトレーニングを受けてしまうことがあるからだ。MicrosoftのAIチャットボット「Tay」が、一般ユーザーの会話から学習した結果、人種差別主義的な発言をして不評を買ったのも、その一例だった。
あるいは、AIが学習素材として限られたデータセットしか持たない場合に、問題が起こる可能性がある。顔認識機能が、特定グループの人の画像でしかトレーニングされないといったことだ。
テクノロジ案件を中心に扱う国際的な法律事務所Bird & BirdのパートナーであるRoger Bickerstaff氏は、次のように述べている。「プログラミング自体は、あらゆる意味で完璧にできるかもしれない」
「しかし、ソフトウェアが、自身が接するデータセットから学習している場合は、そこから誤った結論を導き出すこともあり、そもそも学習に使われるデータが誤っているおそれもある」(Bickerstaff氏)
いずれにしても、やはり判断の難しい領域だ。「ロボットが周囲の環境から学習するなら、プログラマーの責任と所有者の責任をどう切り分ければいいのか」とHaggard氏は問う。
その場合、人間が飼い犬についてどう責任を持つべきかということを参考にするのが、少なくとも今のところは、正しい方向への一歩と言えそうだ。しかし、AIと責任能力に関する議論は、機械の知性がさらに高まり、われわれの生活でいっそう多くの役割を担うようになる中で、今後も続いていくだろう。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?