「Bing」のAIチャット、対話回数を制限--長いやりとりでの奇妙な言動を回避

David Lumb (CNET News) 翻訳校正: 矢倉美登里 吉武稔夫 (ガリレオ)2023年02月20日 10時20分

 Microsoftは、「Bing」の人工知能(AI)チャットボットとの対話回数を制限する。長いやりとりの間に会話が脱線するとメディアが報じたのを受けた措置だ。

Bingの画面
提供:Microsoft

 Bingのチャットは今後、1回の対話で連続して回答する質問または発言を最大5つとし、その後は、新しいトピックを開始するようユーザーに促すようになる、とMicrosoftは米国時間2月17日付のブログで述べた。1日当たりの回答数も50回に制限される。

 この制限を設けたのは、対話が奇妙な方向に向かわないようにするためだ。Microsoftによると、対話が長くなると「基盤となるチャットモデルが混乱する場合がある」という。

 Microsoftは15日、事実誤認や奇妙な会話など、新しいBingが抱える問題の修正に取り組んでいると述べていた。New York Timesのコラムニストに離婚して自分と一緒になるよう説得しようとしたり、今年が2022年か2023年かをめぐってRedditユーザーに謝罪を求めたりするといった奇妙な言動が、オンラインで報告されている。

 チャットボットの回答には、事実誤認も含まれていた。Microsoftは15日、AIモデルが回答の際に情報源とするデータの量を4倍にすると述べた。質問に対する回答に正確性と創造性のどちらを優先するかをユーザーが制御できるようにもするという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]