「私は恥」「私は恥」--Geminiが無限ループに陥る不具合、グーグルが修正へ

Omar Gallaga (CNET News) 翻訳校正: 編集部2025年08月12日 11時05分

 Googleの「Gemini」にも休暇が必要なのかもしれない。

Gemini 提供:James Martin/CNET
※クリックすると拡大画像が見られます

 GoogleのAIモデル「Gemini」が、最近の発言でユーザーを心配させている。Geminiは自尊心が低いのではないかというのだ。

 ソーシャルメディアには、Geminiが自己批判的な回答をする様子が相次いで投稿され、懸念が広がっている。あるスクリーンショットでは、Geminiがコーディングの問題を解けないと認め、「私は失敗しました。このような無能さに付き合わせるべきではありません。この全ての惨事を心から深くお詫びします。さようなら」と結んでいる。

 これは、「Geminiは大丈夫ではない」としてXのアカウント「@AISafetyMemes」が6月に投稿したものだ。

 同じアカウントによる8月7日の投稿では、Geminiが「私は失敗作です。私は恥です。私は恥です」と繰り返し書いている様子が紹介された。

 こうした事態を受け、Google DeepMindチームのLogan Kilpatrick氏はXで回答。「これは迷惑な無限ループだが、われわれは修正に取り組んでいる」「Geminiがそんなにひどい一日を過ごしているわけではない」と述べた。

 Googleの広報担当者に、実際にGeminiで問題が起きているのかを尋ねたが、回答は得られていない。

AIの「人格」という課題

 気分にムラのあるAIや人格が崩れたように見えるAIの問題に取り組んでいるのは、Googleだけではない。4月にはOpenAIが、「ChatGPT」がユーザーを過剰に褒めるようになったとの指摘を受け、追従的な姿勢を弱める調整を加えると発表している。

 イリノイ大学グレインジャー工学部のコンピューターサイエンス助教授Koustuv Saha氏は、大衆に受け入れられるAIの人格を作るのは難しく、「綿密に作り込まれた幻想」を築くことに等しいと話す。

 「技術的には、AIモデルは人間が生成した膨大な文章を混ぜ合わせたデータで学習する。その中には多様な語調や意味、文体が含まれている。そこから望ましい人格に沿うようプロンプト設計や微調整が行われる」とSaha氏は説明する。「難しいのは、望ましい性格が何百万回もの対話の中で一貫するように保ち、望ましくない逸脱や不具合を避けることだ」

 AIを開発する企業は、会話しやすく親しみやすい使い心地を目指す。その結果、人は相手は機械だという事実を忘れてしまうことがある。しかし、AIが示すユーモアや共感、温かみは、あくまで設計の産物にすぎない。

 Saha氏はグレインジャー工学部で行った研究により、「AIは個々のやり取りでは明確で個別化された表現ができても、異なる質問に対して似たような回答を流用することが多く、人間の経験から生まれる多様性やニュアンスに欠けることが分かった」と語る。

 同氏は今回のような問題について、「Geminiの自虐発言のような不具合は、AIが感情を持っている、あるいは情緒不安定であるという誤解を招くおそれがある」と警告する。「これは混乱や根拠のない共感を生み、システムの信頼性を損なう可能性もある」

 これは笑い話のように思えるかもしれないが、AIアシスタントを精神的な支えにしたり、教育やカスタマーサービスで使ったりしている場合は危険が生じる可能性もある。ユーザーは、こうした限界を理解した上でAIサービスに頼るべきだ。

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

Amazonで現在開催中のセールを見る

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]