Anthropicは、米国時間11月21日に公開した投稿で、「ハルシネーション」(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)の減少や、15万ワード程度のリクエストを処理できる能力、タスクの種類に合わせたカスタムツール使用など、バージョン2.1にアップデートした「Claude」の新機能について説明した。
どの生成人工知能(AI)ボットでも誤解を与えるような情報や不正確な情報を提示することがあるため、「ウソをつく」現象であるハルシネーションは、すべてのAIチャットボットに共通する弱点だ。「Claude 2.1」については、旧パージョンと比べて虚偽の発言が50%減少し、情報の精度が大幅に向上したとAnthropicは述べている。
Claude 2.1のレベルアップした信頼度をテストするため、開発チームは、ほかのAIモデルでは正しい回答が得られないことの多い、複雑だが事実に基づく質問を数多く作成した。開発チームが、虚偽の回答と「分からない」という回答と区別するための指標を利用したところ、Claude 2.1は、間違った回答を返すよりも質問への回答を控えることの方が多かった。
特に法的文書、財務報告書、技術仕様書など、高い正確性が要求される長く複雑な文書の理解と要約に関しても大きく改善した。Claude 2.1では誤った解答が30%減り、文書が特定の主張を支持していると誤って結論付ける割合が3~4倍減少した。
次に、新バージョンのClaudeは、リクエストで処理できる情報量が2倍に増えた。新たな上限は20万トークンで、これは英単語およそ15万語、500ページ以上の分量に相当する。
カスタムツールの使用もClaudeの新しい機能だ。現在はベータ機能として開発の初期段階にあるこの新しいオプションを使うと、Claudeを外部のプロセス、製品、APIと連携させられる。そのため、Claudeはウェブを検索したり、外部のデータベースから情報を取得したり、開発者が設計した機能やAPIを利用できるようになった。
最後に、Claude 2.1ではシステムプロンプトを使用して、ユーザーが個々のニーズに合った指示を出せる。システムプロンプトの目的は、Claudeが矛盾の少ない構造化された回答を提供できるように、特定の状況を設定することだ。
Claude 2.1は現在、APIを通じて利用可能で、無料ユーザーと有料版「Claude Pro」の登録ユーザーの両方を対象にclaude.aiのウェブサイトで公開されている。ただし、20万トークンを上限とするコンテキストウィンドウの利用はClaude Proユーザーに限定されている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果