Googleで開発中の人工知能(AI)が感情を持つようになったとして、同技術に対する懸念を公表したソフトウェアエンジニアのBlake Lemoineさんが同社を解雇されていたことが分かった。
Lemoineさんは、GoogleのAIが感情を持っている可能性について社外の専門家らと議論した後、Mediumへの投稿と、それに続くThe Washington Postとのインタビューで、自身の懸念を公表した。Googleは6月、機密保持のポリシーに違反したとしてLemoineさんを停職処分としていた。Lemoineさんは、本件について最初に報じたSubstackのニュースレターBig Technologyの近日公開されるポッドキャストで、何があったのかを説明することになっている。
Googleは、LaMDA(Language Model for Dialogue Applications)技術が感情を持つようになったという主張を否定し続けている。同社によると、LaMDAに対しては、11の独立したレビューが実施されているとのことで、1月に、同技術に関する研究論文を公表している。しかし、Lemoineさんには、内部情報を漏えいするという、解雇理由となる違反行為があったと、Googleは声明で述べた。
「このテーマに長く従事していたにもかかわらず、Lemoineさんが、製品情報を保護するために必要な措置を含む、明確に定められた雇用とデータセキュリティに関するポリシーに繰り返し違反したことは、遺憾だ」と、Googleは声明で述べた。「当社は、言語モデルの慎重な開発を継続するとともに、Blakeの幸運を祈る」
LaMDAは、洗練されたチャットボットだとされている。LaMDAにメッセージを送信すると、文脈に合った返信を自動作成すると、Googleの広報担当者であるBrian Gabriel氏は以前の声明で述べていた。「アイスクリームでできた恐竜になるのはどんな感じかと尋ねたら、溶けたり吠えたりといった内容のテキストを生成できる」
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果