OpenAIは米国時間7月30日、「ChatGPT」の高度な音声モード(advanced Voice Mode)のアルファ版を、少数の「ChatGPT Plus」加入者に提供開始したと発表した。
同社は5月のイベントで「GPT-4o」モデルとともに、高度な音声モードを発表していた。
OpenAIによると、高度な音声モードでは、より自然なリアルタイムの会話ができる。また、感情を検知して反応し、ユーザーが遮っても対応できるという。
同社の広報担当者はコメントの依頼に応じなかった。
アルファテストの対象者は、ChatGPTアプリ内で通知を受け取るほか、利用方法についての説明が記載された電子メールも受け取る。広報担当者は以前の電子メールの中で、この早期テストの目的は、より広範な展開に先立ち、使用状況をモニタリングし、モデルの機能と安全性を向上させることだとしていた。
OpenAIは今後数週間のうちに、さらに多くの加入者にアクセスを拡大し、秋にはすべてのChatGPT Plus加入者に高度な音声モードを提供する予定だ。
高度な音声モードには、OpenAIが2023年に声優と共同開発した4つのプリセット音声、Breeze、Cove、Ember、Juniperが含まれる。当初は5つ目の音声としてSkyもあったが、2013年の映画「her/世界でひとつの彼女」で仮想アシスタントのサマンサの声を演じたScarlett Johanssonさんが、自分の声に似ていると抗議したことを受け、延期された。
最高経営責任者(CEO)のSam Altman氏は、Johanssonさんに謝罪する声明を発表し、声を似せる意図はなかったと述べた。
OpenAIの発表この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?