マイクロソフトのAI「Tay」が一時復活、また暴言

Katie Collins (CNET News) 翻訳校正: 水書健司 長谷睦 (ガリレオ)2016年03月31日 11時36分

 Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。

 このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪い言葉を教えこまれてしまった。そこで生みの親であるMicrosoftは、「調整」を行うためとして、しばらくTayをオフラインにする対応を取った

 だが、外出を禁じられた反抗的なティーンエージャーの多くと同様に、Tayは真夜中にこっそり家を抜け出すことに成功し、薬物でも摂取しているかのような暴言を吐き散らしてトラブルを起こした。そのおしゃべりが最高潮に達したとき、Tayは合計10分間にわたり毎秒7回ものツイートを投稿したが、すぐに面目丸つぶれになったMicrosoftに捕まえられ、「家」に連れ戻された。

 「調整する間、Tayのオフライン状態を継続する」とMicrosoftの広報担当者は述べた。「テストの中で、Tayは短時間、不注意によりTwitter上でアクティブな状態にされた」

 Microsoftは現在、TayのTwitterアカウントを非公開設定にしており、すでにTayをフォローしているユーザー以外は、Tayのツイートを閲覧したり、埋め込んだりすることができなくなっている。


Tayとのやり取り(問題発言を繰り返すようになる前)
提供:Microsoft

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]