AIによる意思決定、人々の信頼は極めて低いとの調査結果

Daphne Leprince-Ringuet (ZDNet UK) 翻訳校正: 編集部2020年09月16日 07時30分

 英国政府が最近、テクノロジーの利用をめぐって失態を演じたことに対し、多くの国民は悪い印象を持ったようだ。英コンピューター学会(BCS)の新しい調査報告によると、英国の成人の半数以上(53%)が、意思決定にアルゴリズムを使う組織を信用していないことが明らかになった。

 2000人以上を対象としたこの調査は、英政府の試験・資格監督当局であるOfqualがこの夏、新型コロナウイルス感染症によるパンデミックで中止になった一般教育修了上級レベル(Aレベル)試験と義務教育修了試験(GCSE)の代わりにアルゴリズムで成績を評価し、その結果を不公平と感じた生徒たちが抗議運動を行ったことをきっかけに実施された。

 Opqualのアルゴリズムは、所属する学校全体の過去の成績に応じて生徒の成績を補正するもので、その結果、特に公立校の生徒は大幅に格下げされた一方、私立の生徒には有利だった。

 政府はすぐにこのアルゴリズムによる結果を撤回し、教師が予想した成績を採用することを許可した。だが、この対策は遅すぎ、不十分だったようだ。BCSによる調査で、教育部門で採用されるアルゴリズムを信頼すると答えたのは回答者のわずか7%だった。

 この割合は、社会福祉と軍で採用するアルゴリズムへの信頼レベルと肩を並べて最低だ。ソーシャルメディア企業がコンテンツ提供とユーザー体験の管理のために使うアルゴリズムを信頼するという回答(8%)よりも少ない。

 BCSのポリシー担当ディレクター、Bill Mitchell氏は米ZDNetに対し、この騒動は国民に関わる決定のためのアルゴリズムの使い方について、国民の信用に「深刻な」打撃を与え、その影響は長期に及ぶと語り、以下のように続けた。

 「だが同時に、これをきっかけに人々はアルゴリズムは遍在するという事実をはっきり認識した。人々は、アルゴリズムがいたるところで使われているのが現実だと気づき、『なぜあなたのアルゴリズムを信用しなければならないのか』と疑問を持っている」

 「そのとおりだ。人々はそう尋ねるべきだし、一方アルゴリズムを設計し、導入する側は、アルゴリズムが害を与えるために使われることはなく、人々の役に立つことを説明できるように準備しなければならない」

 公共生活の倫理基準について政府に助言をする独立機関Committee on Standards in Public Life(CSPL)は2月、政府がAIを利用する際の透明性の欠如を指摘した報告書の中で、AIは人々の知らない間に重要な公共サービスにも浸透していると指摘した。

 この報告書が指摘した当時の主な問題の1つは、政府がどの分野でAIを利用しているのかを正確に把握している人がいないことだった。にもかかわらず、行政サービスは治安維持、教育、公的介護、医療などの分野での影響力の大きい意思決定プロセスにAIを導入することを検討している。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]