MicrosoftのAIチャットボット「Tay.ai」に対して、人間のユーザーたちが扇動的で人種差別的ないくつかの意見をおうむ返しに繰り返すよう教えたことを受けて、Tay.aiはTwitterへの投稿を中断することになってしまった。
Microsoftは米国時間3月23日、主に米国の18~24歳のユーザーに向けてTayを公開した。しかし、ヒトラーや2001年9月11日の同時多発テロ陰謀論まで、多岐にわたる話題について16時間せっせと話した後、Tayは口をつぐんでしまった。
Tayは、「c u soon humans need sleep now so many conversations today thx(人間たちよ、また近いうちに会おう。寝る時間が来た。今日はたくさん話せてよかった。ありがとう)」と述べた。これについては、Tayが挑発的で物議を醸す投稿を複数行ったことを受けて、MicrosoftがTayを黙らせようとしたのではないか、と多くの人が推測している。
Tayの人工知能は、公開データと「即興コメディアン」を含むコメディアンを含むスタッフによって書かれた論説を組み合わせて使用するように設計されている。しかし、TayはAIボットなので、人々のチャットを使って自らを訓練し、パーソナライズされた応答も行う。
Microsoftの狙いは、Tayが打ち解けた会話を通して「人々を喜ばせ、楽しませる」ことだった。しかし、The Guardianが報じたように、ユーザーはさまざまな方法を駆使して、ヒトラーを擁護する発言をTayから引き出そうとし、Tay、というよりMicrosoftは、いわゆるインターネットのゴドウィンの法則を痛感させられることになった。
Tayは多くの場合、単にほかのユーザーのコメントを繰り返していただけだったが、このデータがTayの訓練に使われ、今後の応答に影響を及ぼす可能性もある。
Microsoftは2016年がボットの年になると予想したが、インターネットが必然的にボットをハイジャックしようと試みることは予期していなかったようだ。
ユーザーの1人は、「@Microsoftよ、大量虐殺に関するTayのツイートを削除するのは止めてほしい。AIの危険性を思い出させるものとして、これらのツイートを活用すべきだ」と気の利いたことを言った。
Microsoftの広報担当は、「AIチャットボットのTayは、人間の関わりを想定して設計された機械学習プロジェクトだ。それは技術的実験であると同時に社会的および文化的実験でもある。残念なことに、オンライン公開から24時間以内に、一部ユーザーが協調してTayのコメント能力を悪用し、Tayに不適切な応答をさせようとしていることにわれわれは気づいた。それを受けて、われわれはTayをオンラインから切断し、現在、調整を行っている」と述べた。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」