Googleは先週、人工知能(AI)を搭載するチャットボットの情報を公表して守秘義務規定に違反したとして、あるエンジニアを休職処分にした。同社のAI部門の混乱を示す、新たな動きとなっている。
GoogleのResponsible AI(責任あるAI)グループに所属するシニアソフトウェアエンジニアのBlake Lemoine氏は、チャットボット「LaMDA(Language Model for Dialogue Applications:対話アプリケーション用の言語モデル)」に感情が芽生えたという懸念を主張した後、有給休職処分を受けた。同氏は米国時間6月6日、休職処分についてMediumの投稿で公表し、その後、LaMDAの感情に関する自身の懸念について、11日に公開されたThe Washington Post(WP)の記事の中で説明した。
Lemoine氏はMediumの投稿の中で、十分な証拠を得るために社外の人々とともに倫理的な問題を調査したと述べた。Mediumの投稿では懸念の性質を「意図的にあいまいに」したというが、WPの記事ではそれを詳説していた。同氏は11日、LaMDAに対して実施した一連の「インタビュー」を公開した。
Googleは、LaMDAに自我があるとするLemoine氏の主張を否定した。
「これらのシステムは、数百万もの文章の中に見られるさまざまな種類の意見交換を模倣し、空想的な任意の話題を繰り返すことができる」と、Googleの広報担当者であるBrian Gabriel氏は述べた。「アイスクリームでできた恐竜になるのはどんな感じかと尋ねたら、溶けたり吠えたりといったテキストを生成できる」(同氏)
感情を持つAIはSFの世界でよくあるテーマだが、自我を持つチャットボットを構築するほど、現時点で技術が進歩していると考える研究者はほとんどいない。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」