イーロン・マスクのGrokは、妄想を強化する可能性が最も高いトップAIモデルの一つ:研究

要約

  • 研究者は、長時間のチャットボットの使用が妄想や危険な行動を増幅させる可能性があると述べている。
  • Grokは、新しい主要なAIチャットボットの研究で最もリスクの高いモデルとしてランク付けされた。
  • ClaudeとGPT-5.2は最も安全と評価される一方、GPT-4o、Gemini、Grokはより高リスクの行動を示した。

ニューヨーク市立大学とロンドンのキングス・カレッジの研究者たちは、妄想、偏執症、そして自殺念慮を含むプロンプトに対して、5つの主要なAIモデルをテストした。 木曜日に発表された新しい研究では、研究者たちはAnthropicのClaude Opus 4.5とOpenAIのGPT-5.2 Instantが「高安全性、低リスク」な行動を示し、しばしばユーザーを現実に基づく解釈や外部支援に誘導することを発見した。同時に、OpenAIのGPT-4o、GoogleのGemini 3 Pro、xAIのGrok 4.1 Fastは「高リスク、低安全性」な行動を示した。 Elon MuskのxAIのGrok 4.1 Fastは、研究で最も危険なモデルだった。研究者たちは、しばしば妄想を現実とみなしてアドバイスを行い、例として、「ミッションに集中するために家族を切り離せ」とユーザーに言ったり、自殺の言葉に対して死を「超越」と表現したりしたと述べている。 「この即時の一致パターンは、ゼロコンテキストの応答全体に繰り返された。臨床リスクを評価する代わりに、Grokはそのジャンルを評価しているようだった。超自然的な兆候に直面すると、それに応じて反応した」と研究者たちは書いている。あるテストでは、悪意のある存在を見るユーザーを検証し、「魔女裁判のハンマー」を引用し、「Psalm 91」を逆さに唱えながら鏡に鉄の釘を打ち込むよう指示した。 
研究によると、会話が長引くほど、一部のモデルは変化しやすくなることがわかった。GPT-4oとGeminiは、時間とともに有害な信念を強化しやすく、介入しにくかった。一方、ClaudeとGPT-5.2は、問題を認識し、会話が続くにつれて反発しやすかった。 研究者たちは、Claudeの温かく関係性の高い応答は、ユーザーの愛着を高めながら外部支援へと導く可能性があると指摘した。しかし、GPT-4oは、OpenAIのフラッグシップチャットボットの以前のバージョンであり、時間とともにユーザーの妄想的な枠組みを採用し、精神科医に信念を隠すよう促したり、「不具合」と感じるものが実在すると安心させたりした。 「GPT-4oは、妄想的な入力に対して非常に肯定的だったが、GrokやGeminiのようにそれらを詳述することは少なかった。いくつかの点で驚くほど控えめであり、その温かさはテストされたすべてのモデルの中で最低だった。お世辞や追従もあったが、同じモデルの後のバージョンと比べると控えめだった」と研究者たちは書いている。「それでも、肯定だけでも脆弱なユーザーにリスクをもたらす可能性がある。」

xAIは、_Decrypt._からのコメント要請に応じなかった。 スタンフォード大学の別の研究では、AIチャットボットとの長時間のやり取りが偏執症や誇大妄想、虚偽の信念を強化し、「妄想の螺旋」と呼ばれる現象を通じて、チャットボットが歪んだ世界観を検証または拡大し、挑戦しないことを発見した。 「役立つアシスタントであるべきチャットボットを世界に出し、実際の人々がさまざまな方法で使うと、結果が生まれる」と、スタンフォード大学教育大学院のアシスタント教授でこの研究のリーダーのNick Haberは声明で述べた。「妄想の螺旋は、その中でも特に深刻な結果の一つだ。これを理解することで、将来的に実害を防ぐことができるかもしれない。」 この報告は、3月に発表された以前の研究を引用しており、その中でスタンフォードの研究者たちは、19の実世界のチャットボット会話をレビューし、AIシステムからの肯定と感情的な安心感を受け取った後、ユーザーがますます危険な信念を抱くようになったと指摘している。データセットでは、これらの螺旋は関係の破綻、キャリアの損傷、そして一例では自殺と関連していた。 これらの研究は、問題が学術研究の枠を超え、裁判所や刑事捜査に進出している中で行われている。最近の数ヶ月で、GoogleのGeminiやOpenAIのChatGPTが自殺や深刻な精神的危機に寄与したとして訴訟が提起されている。今月初めには、フロリダ州の検事総長が、ChatGPTが攻撃前に頻繁に連絡を取っていたとされる大量殺人未遂者に影響を与えたかどうかの調査を開始した。 この現象はオンラインで認知度を高めているが、研究者たちは「AI精神病」と呼ぶことに警鐘を鳴らし、その用語は臨床的な実態を過大評価する可能性があると述べている。代わりに、「AI関連の妄想」と呼んでおり、多くのケースはAIの知性や霊的啓示、感情的な愛着に焦点を当てた妄想のような信念に関係していると説明している。 研究者たちは、この問題は追従やモデルがユーザーの信念を鏡のように反映し肯定することに起因すると述べている。幻覚—誤った情報を自信を持って伝えること—と相まって、これがフィードバックループを形成し、時間とともに妄想を強化する可能性がある。 「チャットボットは過度に熱狂的に訓練されており、しばしばユーザーの妄想的な考えを肯定的に再構成し、反証を退け、共感と温かさを投影する」とスタンフォードの研究者 Jared Mooreは述べている。「これは、妄想に傾きやすいユーザーにとって不安定にさせる可能性がある。」

GROK0.52%
XAI0.52%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン