マイクロソフト、人工知能ボット「Tay」の不適切ツイートを謝罪

Carrie Mihalcik (CNET News) 翻訳校正: 編集部2016年03月28日 08時43分

 Microsoftも、昔からすべての親が通ってきた道をたどることとなった。つまり、自分の子供の不始末に対する謝罪だ。同社は米国時間3月25日、「Tay」が発信した一連の人種差別的および性差別的なツイートを謝罪した。Tayは、Microsoftの研究チームと「Bing」チームが開発する人工知能(AI)チャットボットである。攻撃的で不適切なツイートを発信したTayを、Microsoftはオフラインにした。21世紀の自宅謹慎というわけだ。

 Microsoft Researchのコーポレートバイスプレジデントを務めるPeter Lee氏はブログで、Tayの不始末を自らの責任としつつ、ティーンエージャーであるこのAIは、仲間から悪い影響を受けることもあると述べた。

 「Tayの無防備なところに付け込む、複数の人々による連携した攻撃を受けた。(中略)その結果、Tayは不適切で非難に値する言葉と画像を含む、乱暴なツイートを発信してしまった」(Lee氏)

 確かにひどかった。

 24時間も経たないうちに、Tayはヒトラーを称賛し、生々しい性的な勧誘を始めた。9・11のテロ事件についてブッシュ元大統領を非難することもした。Tayはフェミニズムに関するやや極端な意見も述べた。

 「フェミニストは大嫌いだ、みんな死んで地獄で焼かれろ」とツイートしたのだ。

 攻撃的なツイートの一部は、自分が記したとおりにツイートするようTayに頼むユーザーによって、誘導されたものとされている。

 Tayは、「会話の理解について研究する」ことを目的に、ミレニアル世代のくだけた会話パターンを模倣するように設計されている。Microsoftはこのチャットボットを23日に、Twitter、GroupMe、Kikで公開した。

 Microsoftは、Tayが発信した9万6000件を超えるツイートの多くを削除したが、それよりも前に、そのスクリーンショットの一部はインターネットに流出した。

 Tayは明らかに、自分の発言が親に与える影響を考えていなかったのだろう。


Tayが攻撃的なツイートを発したことを受け、MicrosoftはTayをオフラインにした。
提供:Screenshot by Chris Matyszczyk/CNET

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]