OpenAIは米国時間9月25日、「ChatGPT」が「見て、聞いて、話す」ことができるようになったと発表した。人気の高い同チャットボットは新たに、画像と音声の両方を入力として受け取り、音声で回答を返せるようになった。
画像入力機能は、目に見えるものについて支援を受ける際に便利だ。例えば、課題シートに記載された数学の問題を解いてほしい場合、植物の名前を知りたい場合、手元にある食材を見てレシピを提案してほしい場合などだ。
上記のすべての場合で、ユーザーは自分が見ているものの写真を撮って、質問を添えるだけで、回答を得ることができる。
音声入出力機能は、ChatGPTに音声アシスタントと同じ機能を与えるものだ。ChatGPTに処理を頼む場合に音声で指示を与えると、ChatGPTはその要求を処理して音声で回答を返すようになる。
OpenAIは音声機能を実現するために、ユーザーの話し言葉をテキストに変換する同社の音声認識システム「Whisper」と、わずか数秒間の話声があれば、テキストから人間に近い音声を生成できる、新しいテキスト音声変換モデルを使用する。
音声機能と画像機能はどちらも、「ChatGPT Plus」と「ChatGPT Enterprise」を対象に今後2週間のうちに提供開始され、音声機能は「iOS」「Android」で、画像機能はすべてのプラットフォームで利用可能になる。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」