OpenAI、最新AIモデル「GPT-4o」を発表--より高速に

Lisa Lacy (CNET News) 翻訳校正: 編集部2024年05月14日 07時52分

 OpenAIは米国時間5月13日、「ChatGPT」の新UIとともに、新たな人工知能(AI)モデル「GPT-4o(オー)」を発表した。より高速になり、テキスト、音声、映像の処理に優れているという。

OpenAIのロゴ
提供:Viva Tung
  1. 新たなGPT-4oモデル
  2. 刷新されたUIで会話
  3. 動画やスクリーンショットを使う

新たなGPT-4oモデル

 同社の最高技術責任者(CTO)であるMira Murati氏はライブ配信のイベントで、GPT-4oについて「GPT-4水準のインテリジェンスを、無料版ユーザーを含むすべてに提供するものだ」と語った。今後数週間かけてChatGPTに展開していくという。

 有料のChatGPT Plusのユーザーは、利用上限が無料版ユーザーの5倍となる。TeamおよびEnterpriseプランでは、さらに多くを利用できる。

 GPT-4oは、2023年後半にリリースされた「GPT-4 Turbo」と比べて、APIとして2倍速く、50%安いという。50以上の言語に対応している。

刷新されたUIで会話

 OpenAIは同日、「macOS」向けにChatGPTのデスクトップアプリも発表した。より多くのユーザーがAIツールを利用できるようにするためだ。

 「どこにいても使えるようにしたい」とMurati氏。「簡単で、シンプルで、ワークフローにとても簡単に統合できる」

 AIをより身近なものにするもう1つのステップとして、OpenAIはChatGPTの「刷新された」UIも発表した。このUIでは、ChatGPTとより会話的なレベルでやり取りできるほか、出発点として動画を共有できるという。

 「これらのモデルがますます複雑になるにつれて、やり取りの体験をより自然なものにしたい」とMurati氏は述べ、「使いやすさという点で大きな進歩を遂げたのは、今回が初めてだ」とした。

 OpenAIのフロンティア研究責任者であるMark Chen氏は、新たなリアルタイム音声会話機能によって、ユーザーはモデルに対して割り込むことができ、応答を待つ必要はなく、モデルはユーザーの感情を判別できるようになると語った。

動画やスクリーンショットを使う

 ChatGPTと対話する他の方法として、動画を利用できるようになる。例えば、行き詰まっている数学の問題を映像で共有し、解決の手助けを求めると、ChatGPTは回答を提供するか、解くのを支援してくれる。

 また、スクリーンショットや写真、およびテキストと画像を含む文書を共有したり、ChatGPTに以前の会話について質問したり、会話内のリアルタイム情報を検索したり、質問する前に図表やコードをアップロードして高度なデータ分析を実行したりすることもできるようになる。

OpenAIの発表

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]