MS、AIチャットボット「Tay」を停止--ヒトラー擁護など不適切なツイートの投稿で

Liam Tung (ZDNET.com) 翻訳校正: 編集部2016年03月25日 11時08分

 MicrosoftのAIチャットボット「Tay.ai」に対して、人間のユーザーたちが扇動的で人種差別的ないくつかの意見をおうむ返しに繰り返すよう教えたことを受けて、Tay.aiはTwitterへの投稿を中断することになってしまった。

 Microsoftは米国時間3月23日、主に米国の18~24歳のユーザーに向けてTayを公開した。しかし、ヒトラーや2001年9月11日の同時多発テロ陰謀論まで、多岐にわたる話題について16時間せっせと話した後、Tayは口をつぐんでしまった。

 Tayは、「c u soon humans need sleep now so many conversations today thx(人間たちよ、また近いうちに会おう。寝る時間が来た。今日はたくさん話せてよかった。ありがとう)」と述べた。これについては、Tayが挑発的で物議を醸す投稿を複数行ったことを受けて、MicrosoftがTayを黙らせようとしたのではないか、と多くの人が推測している。

 Tayの人工知能は、公開データと「即興コメディアン」を含むコメディアンを含むスタッフによって書かれた論説を組み合わせて使用するように設計されている。しかし、TayはAIボットなので、人々のチャットを使って自らを訓練し、パーソナライズされた応答も行う。

 Microsoftの狙いは、Tayが打ち解けた会話を通して「人々を喜ばせ、楽しませる」ことだった。しかし、The Guardianが報じたように、ユーザーはさまざまな方法を駆使して、ヒトラーを擁護する発言をTayから引き出そうとし、Tay、というよりMicrosoftは、いわゆるインターネットのゴドウィンの法則を痛感させられることになった。

 Tayは多くの場合、単にほかのユーザーのコメントを繰り返していただけだったが、このデータがTayの訓練に使われ、今後の応答に影響を及ぼす可能性もある。

 Microsoftは2016年がボットの年になると予想したが、インターネットが必然的にボットをハイジャックしようと試みることは予期していなかったようだ。

 ユーザーの1人は、「@Microsoftよ、大量虐殺に関するTayのツイートを削除するのは止めてほしい。AIの危険性を思い出させるものとして、これらのツイートを活用すべきだ」と気の利いたことを言った。

 Microsoftの広報担当は、「AIチャットボットのTayは、人間の関わりを想定して設計された機械学習プロジェクトだ。それは技術的実験であると同時に社会的および文化的実験でもある。残念なことに、オンライン公開から24時間以内に、一部ユーザーが協調してTayのコメント能力を悪用し、Tayに不適切な応答をさせようとしていることにわれわれは気づいた。それを受けて、われわれはTayをオンラインから切断し、現在、調整を行っている」と述べた。

挑発的で物議を醸すツイートをTwitterに投稿した後、口をつぐんでしまったTay
Tayは、挑発的で物議を醸すツイートをTwitterに投稿した後、口をつぐんでしまった。
提供:Microsoft/Twitter

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]