Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。
このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪い言葉を教えこまれてしまった。そこで生みの親であるMicrosoftは、「調整」を行うためとして、しばらくTayをオフラインにする対応を取った。
だが、外出を禁じられた反抗的なティーンエージャーの多くと同様に、Tayは真夜中にこっそり家を抜け出すことに成功し、薬物でも摂取しているかのような暴言を吐き散らしてトラブルを起こした。そのおしゃべりが最高潮に達したとき、Tayは合計10分間にわたり毎秒7回ものツイートを投稿したが、すぐに面目丸つぶれになったMicrosoftに捕まえられ、「家」に連れ戻された。
「調整する間、Tayのオフライン状態を継続する」とMicrosoftの広報担当者は述べた。「テストの中で、Tayは短時間、不注意によりTwitter上でアクティブな状態にされた」
Microsoftは現在、TayのTwitterアカウントを非公開設定にしており、すでにTayをフォローしているユーザー以外は、Tayのツイートを閲覧したり、埋め込んだりすることができなくなっている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」