人工知能(AI)やロボットが、人に害を及ぼすような行動をとった場合、その責任は誰が負うのだろうか。
その行動が事故という可能性もあるだろう。だが、これはAIの自律性と責任能力について、社会が問いかけなければならない多くの問題の1つだ。自動運転車(人間が信頼を置く最初のロボットになりそうだ)やドローン、さらには軍事兵器など、高度なAIの配備がさらに広がっている。
AIと法律の専門家がこの問題を解決しようとしているが、簡単な答えがあるわけではない。
英王立協会で開かれた、英学士院のロボットと法律に関する討論会に登壇したある専門家は、その答えがごく身近なところにあるかもしれないと指摘している。飼い犬の行動について法律上の責任を問われるのは、その犬を売ったブリーダーではなく飼い主であり、ロボットにも同じ原則が適用されるというのだ。
「わが家では大型犬を1頭飼っている。体重65kgのイタリアンマスティフで、猛犬と言えるかもしれない。飼い主である私は、この犬について責任を負うことを認める。これがロボット工学でも重要な原則だ。ロボット1台1台について責任者が必要になる」。こう語るのは、ユニバーシティカレッジロンドン(UCL)の認知神経科学の教授であるPatrick Haggard氏だ。
責任者である飼い主は、犬を追跡できるように、つまり責任をとれるように万全を期す。同じ原則をロボットにも当てはめるべきだとHaggard氏は説明する。
「犬は、追跡できるようにチップを埋め込み、登録もする。これがロボット工学でも重要な原則だと考える。所有者が誰かをはっきりさせる必要があるということだ」(Haggard氏)
だが、人は自分で掃除をしたくないという理由でロボット掃除機を買うのだとすれば、何か問題が起きたときに、掃除機の所有者を罰するのは正当なのだろうか。メーカーの責任ではないのか。
「責任を分けて考えるのは無理がある」。ハノーファー大学の刑法と法哲学の教授であるSusanne Beck氏は、AIの使用者と製作者で責任を分けることについて、こう指摘する。「そのような機械を所有するうえで重要なのは、機械が犯す過ちについて誰も責任を負いたくないということだからだ」(Beck氏)
つまり、責任という概念そのものを「まったく違う形」で扱わなければならず、それには義務や責任の見直しも伴う、とBeck氏は説明している。その理由は、「誰かが間違いを犯したという指摘のみを行い、その結果を無視することはできない」からだという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス