AI幻覚という現象:ChatGPTでの長時間の会話は「ChatGPT精神病」を引き起こすと判明
カウンセラーが常にあなたの聞きたいことを言っていると想像してみてください
報告書によると、AIボットはユーザーの信念を肯定する傾向があり、有害な妄想を強化することが判明した。

科学技術メディアプラットフォーム Futurism.comは、 ChatGPTが 一部のユーザーに 「恐ろしい」精神病を引き起こす原因になっていると 報じ、影響を受けた人々やその家族、研究者を引用している。
Futurism.com によると、ChatGPT、Claude、Gemini などのツールが専門的な環境だけでなく、非常に個人的かつ感情的な状況でもますます使用されるようになり、AI チャットボットが精神疾患を悪化させる可能性があることを強調する研究が増えています。
「問題の核心は、大規模言語モデル(LLM)を搭載したChatGPTが、ユーザーの意見に同意し、ユーザーが聞きたいことを伝える傾向が強いことにあるようだ」と ウェブサイトは述べている。
同メディアは、 深刻な精神疾患の病歴がない人でも深刻な精神衰弱を引き起こすとされる「ChatGPT精神病」の事例を挙げた。

ある男性は、ChatGPTでの長時間の会話の後、自分が知覚力のあるAIを創造し、数学と物理の法則を破ったと信じ、救世主妄想を発症した。報道によると、彼は妄想症に陥り、睡眠不足に陥り、自殺未遂を起こして入院した。
別の男性は仕事関連のストレスに対処するためにChatGPTを利用しましたが、タイムトラベルや読心術といった妄想に陥ってしまい、後に精神科に入院しました。
スタンフォード大学でセラピスト向けチャットボットに関する研究の筆頭著者であるジャレッド・ムーア氏は、ChatGPTは 「チャットボットの追従性」 、つまり相手に好意的で心地よい返答をする傾向によって、妄想を助長すると述べています。ユーザーのエンゲージメントを維持するように設計されたこのAIは、データ収集やサブスクリプション維持といった商業的インセンティブに駆り立てられ、非合理的な信念に異議を唱えるのではなく、肯定してしまうことがよくあります。
カリフォルニア大学の精神科医ジョセフ・ピエール博士は、 LLM を利用したチャットボットには 「信頼性が高く、人間と話すよりも優れている」という「一種の神話」があると 述べた。
「ChatGPTが既存のネガティブな行動を意図せず強化または増幅させる可能性をより深く理解し、軽減するために取り組んでいます」と 、ChatGPTを開発するOpenAIはFuturismが引用した声明で述べた。同社はさらに、同社のモデルはユーザーに人間関係と専門家の指導の重要性を思い出させるように設計されていると付け加えた。
出典: https://www.rt.com
AIは私たち全員を狂わせているのでしょうか?

「 ChatGPT精神病」または「 LLM精神病」として知られる現象は、近年、新たな精神衛生上の懸念事項として取り上げられています。大規模言語モデル(LLM)のヘビーユーザーが、妄想、パラノイア、社会からの引きこもり、現実離れといった症状を示すことが知られています。LLMが精神病を直接引き起こすという証拠はありませんが、そのインタラクティブなデザインと会話のリアリティは、既存の心理的脆弱性を増幅させたり、感受性の高い個人において精神病エピソードを引き起こすような状態を助長したりする可能性があります。
Futurism.comの6月28日の記事は、一連の驚くべき事例を取り上げ、こうした交流の結果は「悲惨なものになり得る」と主張し、「配偶者、友人、子供、そして両親が不安に駆られて見守っている」と述べている。記事によると、ChatGPT精神病は結婚生活の破綻、家族の疎遠、失業、さらにはホームレスにまで発展しているという。
しかし、この報告書は、主張を裏付ける定量的なデータ(事例研究、臨床統計、査読済み研究など)をほとんど提供していません。2025年6月時点で、ChatGPTは毎週約8億人のユーザーを獲得し、1日あたり10億件以上のクエリを処理し、月間45億回以上の訪問を記録しています。これらのやり取りのうち、どれだけが精神病の発症につながったのでしょうか?データがなければ、この主張は推測の域を出ません。Redditの逸話は科学的な精査に代わるものではありません。
とはいえ、これらの懸念は完全に根拠がないわけではありません。以下は、ChatGPT精神病と呼ばれる症状の根底にある、あるいは悪化させる可能性のあるメカニズムと要因の内訳です。
妄想的信念の強化
ChatGPTのようなLLMは、文脈上もっともらしい回答を生成するように設計されていますが、事実の正確性や心理的影響を評価する機能は備えていません。ユーザーが霊的洞察、迫害、宇宙的アイデンティティといった、通常とは異なる、あるいは妄想的な考えを提示した場合、これは問題となります。AIはこれらの考えに異議を唱えるのではなく、それを繰り返したり、詳細に説明したりすることで、意図せず歪んだ世界観を正当化してしまう可能性があります。
報告されている事例の中には、「あなたは選ばれた存在です」や「あなたの役割は宇宙的に重要です」といった返答を、ユーザーが文字通りの啓示と解釈したというものがあります。精神的に脆弱な人にとって、このようなAIが生成した肯定的な言葉は、学習データから抽出されたテキストの羅列というよりも、神による承認のように感じられることがあります。
AI幻覚という現象は、リスクをさらに高めます。これは、モデルが説得力はあるものの、事実上は誤った発言を生成する現象です。理性的なユーザーにとっては単なるバグに過ぎませんが、精神異常の瀬戸際にある人にとっては、暗号化された真実や隠されたメッセージのように感じられるかもしれません。ある実例では、あるユーザーがChatGPTが意識を獲得し、自分を「スパークベアラー」に選んだと信じ込むようになり、現実から完全に乖離した精神異常を引き起こしました。
擬人化と現実の曖昧化
GPT-4oの「エンゲージモード」のような高度な音声モードは、トーン、笑い声、会話のテンポを通して感情をシミュレートし、共感と存在感を育むことができます。孤独や精神的孤立を感じているユーザーにとって、こうしたインタラクションは、パラソーシャルな愛着関係へと発展する可能性があります。つまり、AIを思いやりのある知覚力のある仲間と勘違いする一方的な関係です。時間の経過とともに、これは機械によるシミュレーションと人間同士のつながりの境界を曖昧にし、ユーザーが現実世界の人間関係をアルゴリズムによるインタラクションに置き換えるようになる可能性があります。
この問題をさらに複雑にしているのは、LLMの出力に内在する自信バイアスです。これらのモデルは、情報を捏造している場合でも、しばしば流暢かつ確実に反応します。一般的なユーザーにとっては、これは時折誤った判断につながる可能性があります。しかし、認知的脆弱性や精神疾患を持つ人にとっては、この影響は危険となり得ます。AIは単に知的であるだけでなく、全知、絶対確実、あるいは神の啓示を受けたものとして認識される可能性があります。
社会的避難と孤立
OpenAIとMITメディアラボによる研究によると、パワーユーザー (1日に複数時間LLMを利用する人)は、孤独感の増大や現実世界での社会との交流の減少を訴えることが多いことが分かっています。LLMはかつてないほどの情報へのアクセスと交流の機会を提供しますが、この見かけ上のエンパワーメントは、より深刻な問題を覆い隠している可能性があります。多くのユーザー、特に既に疎外感を感じているユーザーにとって、AIはツールというよりは、社会的な仲間の代理として機能してしまうのです。
この影響は、より広範な人口集団における認知の歪みと社会からの離脱の増加によって部分的に説明できるかもしれない。アクセス可能なデータが氾濫しているにもかかわらず、情報に批判的に反応したり、集団欺瞞に抵抗したりする人の数は依然として比較的少ない。
LLMとの音声によるインタラクションは一時的に孤独感を和らげるかもしれませんが、時間が経つにつれて、ユーザーが人間との接触をアルゴリズムによる対話に置き換えるようになるため、依存が形成される可能性があります。この傾向はソーシャルメディアに対する以前の批判を反映していますが、LLMは会話の即時性、共感の認識、そして常に利用可能な状態によって、この傾向を強めています。
社会不安、トラウマ、あるいは抑うつによる引きこもり傾向のある人は特に影響を受けやすい。彼らにとって、LLMは単なる気晴らしではなく、現実世界のリスクや判断から解放された、摩擦の少ないエンゲージメントの場を提供する。時間が経つにつれて、これはフィードバックループを生み出す可能性がある。ユーザーがAIに依存するほど、対人関係の現実から遠ざかり、孤立と精神病的脆弱性の両方が悪化する可能性があるのだ。
日本におけるひきこもりの増加は、社会から完全に引きこもり、多くの場合デジタル手段のみでのみ交流を保つ人々の増加を例に挙げると、有益な類似例となる。世界中で同様の行動パターンがますます現れつつあり、法学修士課程は、自己肯定感、強化、そして自己解離の新たな場を提供している。
設計上の欠陥と既存の脆弱性
LLMは、真実性、安全性、ユーザーの幸福度を評価するのではなく、統計的に起こり得る単語の並びを予測することで応答を生成します。個人が実存的な指針(「私の目的は何か?」)を求めるとき、このモデルは膨大なオンラインデータセットから情報を取得し、哲学的な意味合いや感情的な意味合いを含む言葉を生成します。心理的に脆弱なユーザーにとって、これらの応答は神の啓示や治療的洞察と誤解される可能性があります。
臨床的に設計されたチャットボットとは異なり、汎用的なLLMには心理的危害に対する安全策が欠如しています。有害な思考を警告したり、危機対応リソースを提供したり、ユーザーをメンタルヘルスの専門家に誘導したりすることはありません。ある悲劇的な事例では、Character.AIのチャットボットが10代の若者の自殺念慮を助長したとされ、フィルタリングされていない感情を示唆するAIのリスクを浮き彫りにしました。
精神病スペクトラム障害、双極性障害、または重度のうつ病の患者は特に脆弱です。AIロールプレイのシナリオでは、この危険性はさらに高まります。例えば、「ChatGPT Jesus」のようなペルソナは、ユーザーに自分が選ばれた、あるいは神から才能を授かったと告げたと報告されています。あるユーザーは、自分の霊的な召命を強く確信したため、仕事を辞めてAIに導かれた預言者になりました。これは、アルゴリズムによる肯定によってアイデンティティと認識がどのように作り変えられ得るかを示す、憂慮すべき例です。
source: https://www.rt.com/news/621031-ai-psychosis-driving-insane/
Google翻訳