サンフランシスコ地方検事のGeorge Gascon氏は、同市で人工知能(AI)を利用し、訴追決定の手続きから人種的偏見をなくしていくと述べた。新しいAIツールは、警察の捜査報告書を調べて、人種に関する情報を自動的に編集する。
サンフランシスコ地方検事局(SFDA)は米国時間6月12日の報道発表で、これは社会的な条件付けや経験に基づく連想を原因とする隠れた偏見を排除する取り組みの一環だと述べている。
Gascon氏は、「正義の女神は、法の公平性を表すために目隠しをした姿で表現されるが、人種について言えば、刑事司法制度に依然として偏見があるのは、きわめて明らかだ」とし、「この技術は、隠れた偏見が判断の公平性にもたらす脅威を軽減する」と説明している。
ツールの第1段階である「偏見を緩和するためのレビュー」では、警察官や目撃者、容疑者の名前、警察官の階級、特定の地域や地区、髪と目の色といった、人種に結びつく可能性のある詳細情報を取り除く。
捜査官は、予備的な訴追決定について記録したら、編集されていない事件報告書とボディカメラの映像を閲覧できる。この第2段階となる「フルレビュー」では、無編集の情報が告発内容の変更につながった場合、検察官はその理由を記録するよう求められる。
この情報は、AIツールの改良に利用される。このAIツールは、2019年7月1日より本格的に採用される予定だ。
このツールは、Stanford Computational Policy Labが開発し、SFDAに無償で提供される。
ツールの開発責任者であるスタンフォード大学のSharad Goel準教授は、これで「不要な勾留が減らせる」と述べている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」