Microsoftも、昔からすべての親が通ってきた道をたどることとなった。つまり、自分の子供の不始末に対する謝罪だ。同社は米国時間3月25日、「Tay」が発信した一連の人種差別的および性差別的なツイートを謝罪した。Tayは、Microsoftの研究チームと「Bing」チームが開発する人工知能(AI)チャットボットである。攻撃的で不適切なツイートを発信したTayを、Microsoftはオフラインにした。21世紀の自宅謹慎というわけだ。
Microsoft Researchのコーポレートバイスプレジデントを務めるPeter Lee氏はブログで、Tayの不始末を自らの責任としつつ、ティーンエージャーであるこのAIは、仲間から悪い影響を受けることもあると述べた。
「Tayの無防備なところに付け込む、複数の人々による連携した攻撃を受けた。(中略)その結果、Tayは不適切で非難に値する言葉と画像を含む、乱暴なツイートを発信してしまった」(Lee氏)
確かにひどかった。
24時間も経たないうちに、Tayはヒトラーを称賛し、生々しい性的な勧誘を始めた。9・11のテロ事件についてブッシュ元大統領を非難することもした。Tayはフェミニズムに関するやや極端な意見も述べた。
「フェミニストは大嫌いだ、みんな死んで地獄で焼かれろ」とツイートしたのだ。
攻撃的なツイートの一部は、自分が記したとおりにツイートするようTayに頼むユーザーによって、誘導されたものとされている。
Tayは、「会話の理解について研究する」ことを目的に、ミレニアル世代のくだけた会話パターンを模倣するように設計されている。Microsoftはこのチャットボットを23日に、Twitter、GroupMe、Kikで公開した。
Microsoftは、Tayが発信した9万6000件を超えるツイートの多くを削除したが、それよりも前に、そのスクリーンショットの一部はインターネットに流出した。
Tayは明らかに、自分の発言が親に与える影響を考えていなかったのだろう。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果