「それはロボットがしたことです」は認められる?--AIと法律の専門家に聞く

Danny Palmer (ZDNET.com) 翻訳校正: 川村インターナショナル2017年02月10日 07時00分

 人工知能(AI)やロボットが、人に害を及ぼすような行動をとった場合、その責任は誰が負うのだろうか。

 その行動が事故という可能性もあるだろう。だが、これはAIの自律性と責任能力について、社会が問いかけなければならない多くの問題の1つだ。自動運転車(人間が信頼を置く最初のロボットになりそうだ)やドローン、さらには軍事兵器など、高度なAIの配備がさらに広がっている。

 AIと法律の専門家がこの問題を解決しようとしているが、簡単な答えがあるわけではない。

 英王立協会で開かれた、英学士院のロボットと法律に関する討論会に登壇したある専門家は、その答えがごく身近なところにあるかもしれないと指摘している。飼い犬の行動について法律上の責任を問われるのは、その犬を売ったブリーダーではなく飼い主であり、ロボットにも同じ原則が適用されるというのだ。

 「わが家では大型犬を1頭飼っている。体重65kgのイタリアンマスティフで、猛犬と言えるかもしれない。飼い主である私は、この犬について責任を負うことを認める。これがロボット工学でも重要な原則だ。ロボット1台1台について責任者が必要になる」。こう語るのは、ユニバーシティカレッジロンドン(UCL)の認知神経科学の教授であるPatrick Haggard氏だ。

 責任者である飼い主は、犬を追跡できるように、つまり責任をとれるように万全を期す。同じ原則をロボットにも当てはめるべきだとHaggard氏は説明する。

 「犬は、追跡できるようにチップを埋め込み、登録もする。これがロボット工学でも重要な原則だと考える。所有者が誰かをはっきりさせる必要があるということだ」(Haggard氏)

 だが、人は自分で掃除をしたくないという理由でロボット掃除機を買うのだとすれば、何か問題が起きたときに、掃除機の所有者を罰するのは正当なのだろうか。メーカーの責任ではないのか。

 「責任を分けて考えるのは無理がある」。ハノーファー大学の刑法と法哲学の教授であるSusanne Beck氏は、AIの使用者と製作者で責任を分けることについて、こう指摘する。「そのような機械を所有するうえで重要なのは、機械が犯す過ちについて誰も責任を負いたくないということだからだ」(Beck氏)

 つまり、責任という概念そのものを「まったく違う形」で扱わなければならず、それには義務や責任の見直しも伴う、とBeck氏は説明している。その理由は、「誰かが間違いを犯したという指摘のみを行い、その結果を無視することはできない」からだという。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]