「AIに感情がある」としたグーグルのエンジニア、休職処分に

Imad Khan (CNET News) 翻訳校正: 編集部2022年06月14日 08時39分

 Googleは先週、人工知能(AI)を搭載するチャットボットの情報を公表して守秘義務規定に違反したとして、あるエンジニアを休職処分にした。同社のAI部門の混乱を示す、新たな動きとなっている。

Googleのロゴ
提供:Stephen Shankland/CNET

 GoogleのResponsible AI(責任あるAI)グループに所属するシニアソフトウェアエンジニアのBlake Lemoine氏は、チャットボット「LaMDA(Language Model for Dialogue Applications:対話アプリケーション用の言語モデル)」に感情が芽生えたという懸念を主張した後、有給休職処分を受けた。同氏は米国時間6月6日、休職処分についてMediumの投稿で公表し、その後、LaMDAの感情に関する自身の懸念について、11日に公開されたThe Washington Post(WP)の記事の中で説明した。

 Lemoine氏はMediumの投稿の中で、十分な証拠を得るために社外の人々とともに倫理的な問題を調査したと述べた。Mediumの投稿では懸念の性質を「意図的にあいまいに」したというが、WPの記事ではそれを詳説していた。同氏は11日、LaMDAに対して実施した一連の「インタビュー」を公開した

 Googleは、LaMDAに自我があるとするLemoine氏の主張を否定した。

 「これらのシステムは、数百万もの文章の中に見られるさまざまな種類の意見交換を模倣し、空想的な任意の話題を繰り返すことができる」と、Googleの広報担当者であるBrian Gabriel氏は述べた。「アイスクリームでできた恐竜になるのはどんな感じかと尋ねたら、溶けたり吠えたりといったテキストを生成できる」(同氏)

 感情を持つAIはSFの世界でよくあるテーマだが、自我を持つチャットボットを構築するほど、現時点で技術が進歩していると考える研究者はほとんどいない。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]