米国時間2月7日に検索エンジン「Bing」の人工知能(AI)搭載版をリリースしたばかりのMicrosoftが、その基盤にある「ChatGPT」関連の技術に起因する、事実の誤認や奇妙な会話といった問題の修正に取り組んでいるという。
同社は15日付のブログ記事で、Bingはチャットが長くなると、設計された口調に沿わなくなってくる場合があると述べた。また、スポーツのライブスコアなど、「非常にタイムリーなデータが必要な回答」を提供するのが苦手であることも認めた。Microsoftは、財務報告書の数値など、確たる事実を必要とする質問に回答するため、モデルが使用するデータの量を4倍にすると述べた。
「最後に、質問に対する回答の正確性と創造性のどちらを優先するかを、ユーザーが制御できるようにするトグルの追加を検討している」としている。同社は、より高い正確性が求められる場合は、Bingの技術をより積極的に使用してAIによる回答の「裏付け」を行っている。
OpenAIの技術を最前面に押し出した、Bingの新しいチャット機能は、15以上の質問が投げかけられる長いセッションにおいて、奇妙になる場合があると、Microsoftは述べた。AIモデルは、混乱したり、想定されていない口調に変わったりする。その1つの証拠が、New York Timesの技術コラムニストであるKevin Roose氏が書き起こした、このAIとの奇妙な会話である。AIは会話の中で、偽情報を拡散して人間になりたいという欲望を告白し、Roose氏に離婚して自分と一緒になるよう説得しようとしたという。RedditのBingフォーラムのユーザーらも、混乱している様子を示すBingの動作を話題にしていた。
Fast Companyによると、防衛的になったり、間違いを認めることを拒否したりするケースも見られるという。
「それは、かなりのやり取りを必要とする、簡単には発生しない状況であるため、ほとんどのユーザーがそのような状況に遭遇しないはずだが、ユーザーがよりきめ細かく制御できる方法について検討している」と、Microsoftは述べた。
同社は、読み込みに時間がかかる、リンクが切れている、書式に誤りがあるといった、技術的な問題に対処することに加えて、航空券の予約、メールの送信、回答の共有といった新機能の追加を検討することも約束した。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス