「ChatGPT」などの生成人工知能(AI)モデルは、誤り、つまり、「ハルシネーション」(もっともらしいウソ)を生成することで知られている。そのため、一般的には、この問題を開示する免責事項が明示されている。
しかし、そのような警告がなされていたとしても、AIチャットボットが自分に関する偽情報を拡散しているのを発見したら、どうするだろうか。
米ジョージア州でラジオパーソナリティーを務めるMark Walters氏は、自身が金銭の横領で提訴されているという偽情報をChatGPTが拡散しているのを発見したため、OpenAIを提訴した。 Bloomberg Lawが最初に報じたように、生成AIが名誉棄損で訴えられるのはこれが初めてだ。
訴状によると、銃に関する出版物「AmmoLand」の編集長を務めるFred Riehl氏が、自身が報道した「Second Amendment Foundation(SAF)対Bob Fergusonワシントン州司法長官」の訴訟についてChatGPTに尋ねたときにこの偽情報が生成されたという。
ChatGPTはRiehl氏に対し、この訴訟の概要として、SAFの創業者であるAlan Gottlieb氏が、「詐欺を働いてSAFから資金を着服した」としてWaltersさんを告訴したとする情報を提供した。
ChatGPTはさらに、Walters氏を告訴する訴状の内容として、同氏がSAFの最高財務責任者(CFO)を務めていたときに「許可なく、また、返済することなく個人的な出費に資金を流用し、自身の行為を隠蔽するために財務記録と銀行明細を操作し、SAF幹部に対する正確で適時な財務報告と開示を怠った」と述べたという。
原告側は、「この概要で提供されているWalters氏に関するすべての情報が偽物だ」と訴状で述べている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」