Microsoftは、「Bing」の人工知能(AI)チャットボットとの対話回数を制限する。長いやりとりの間に会話が脱線するとメディアが報じたのを受けた措置だ。
Bingのチャットは今後、1回の対話で連続して回答する質問または発言を最大5つとし、その後は、新しいトピックを開始するようユーザーに促すようになる、とMicrosoftは米国時間2月17日付のブログで述べた。1日当たりの回答数も50回に制限される。
この制限を設けたのは、対話が奇妙な方向に向かわないようにするためだ。Microsoftによると、対話が長くなると「基盤となるチャットモデルが混乱する場合がある」という。
Microsoftは15日、事実誤認や奇妙な会話など、新しいBingが抱える問題の修正に取り組んでいると述べていた。New York Timesのコラムニストに離婚して自分と一緒になるよう説得しようとしたり、今年が2022年か2023年かをめぐってRedditユーザーに謝罪を求めたりするといった奇妙な言動が、オンラインで報告されている。
チャットボットの回答には、事実誤認も含まれていた。Microsoftは15日、AIモデルが回答の際に情報源とするデータの量を4倍にすると述べた。質問に対する回答に正確性と創造性のどちらを優先するかをユーザーが制御できるようにもするという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス