OpenAIは米国時間9月25日、「ChatGPT」が「見て、聞いて、話す」ことができるようになったと発表した。人気の高い同チャットボットは新たに、画像と音声の両方を入力として受け取り、音声で回答を返せるようになった。
画像入力機能は、目に見えるものについて支援を受ける際に便利だ。例えば、課題シートに記載された数学の問題を解いてほしい場合、植物の名前を知りたい場合、手元にある食材を見てレシピを提案してほしい場合などだ。
上記のすべての場合で、ユーザーは自分が見ているものの写真を撮って、質問を添えるだけで、回答を得ることができる。
音声入出力機能は、ChatGPTに音声アシスタントと同じ機能を与えるものだ。ChatGPTに処理を頼む場合に音声で指示を与えると、ChatGPTはその要求を処理して音声で回答を返すようになる。
OpenAIは音声機能を実現するために、ユーザーの話し言葉をテキストに変換する同社の音声認識システム「Whisper」と、わずか数秒間の話声があれば、テキストから人間に近い音声を生成できる、新しいテキスト音声変換モデルを使用する。
音声機能と画像機能はどちらも、「ChatGPT Plus」と「ChatGPT Enterprise」を対象に今後2週間のうちに提供開始され、音声機能は「iOS」「Android」で、画像機能はすべてのプラットフォームで利用可能になる。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力