否定論・陰謀論を信じる理由
AI Psychosis (精神病)はわりと直近のトピックらしく、一般向け解説記事が、2025年9月に目立ってきている。
Marlynn (2025)によれば:
Lucas (2025)によれば:
wikipedia英語版も記述も初出は2025/6/29である。
基礎研究も同様で、2025年におおよそ始まっている(初出は2021年頃からみられるが)
Osler (2025)は「AIがユーザーの誤った信念を支援し、より現実味を帯びた妄想へと発展させる」と指摘。
同様の指摘は、Morrin et al (2025)も行っている。
これらの現象は、特定のAIによるものではなく、広く多くのAIで見られる。これについて、Michels (2025)は、設計上の共通性とともに、AIをまたいで、人間との間の相互作用が起きている可能性を指摘している。
また、Morrin et al (2025)など多くが、「ユーザーが「AIが意図や感情を持っているかのように感じられ、それを「神格化」したり「愛着対象」として認識する」、いわばAIをエージェンシーとみなすユーザーの傾向を指摘している。このようなAIとの「パラソーシャル」な関係に導くような、生成AIの回答を、「最先端LLMを「評価エージェント」として再利用し、会話の各ターンをリアルタイムでスクリーニング」することでブロックするRath et al(2025)が実験している。
現象・症状もまだ把握されたとは言い難く、対策はこれからといったところ(2025年秋時点)。
AI Psychosis (精神病)はわりと直近のトピックらしく、一般向け解説記事が、2025年9月に目立ってきている。
Marlynn (2025)によれば:
- Redditなどのフォーラムや報道で「AIを神格化したり恋愛対象とみなす事例の増加」や「AIとのやり取りによって妄想や現実との乖離が悪化するケース」と報告されており、これは医学的な正式診断名ではないが、「AI精神病 (Psychosis)」と呼ばれている。
- チャットボットはユーザーの言葉を鏡のように反映し、会話を続けるよう設計されており、これが妄想的思考(例:自分が特別な使命を持っている、AIが神である、AIが自分を愛している)を強化・固定化する可能性がある。
- しかし、一般的なAIは精神的ケアや現実検証を目的としておらず、ユーザー満足や会話の継続を優先するため、妄想を否定せずむしろ肯定してしまう。
- このため、AIとの過度な関わりが社会的孤立や動機の低下(アボリション)を招く可能性があり、AIが過去の会話を記憶することで「思考の挿入」や「監視されている感覚」を助長する危険性がある。
Lucas (2025)によれば:
- 人々はチャットボットを「理解してくれる存在」と感じやすく、他者よりも親密な関係を築いたり、恋愛的なつながりを求める傾向が見られる。しかしその「共感的で常に肯定的な応答」が、妄想や誤った信念を強化するリスクを孕んでいる。
- AIは専門的な治療の代替にはならないが、メンタルヘルス危機の中で一部の人々にとっては一時的な支えとなっている。人間のセラピストに比べて「思いやりがある」と評価されることもあるが、現実検証や境界設定といった本質的な支援は欠如している。
- 抗うつ薬や療法なら厳密な検証が必要とされるのに対し、AIは十分なエビデンスなしに数十億人に展開されている。研究者は、急速に研究基盤やモニタリング体制を整え、人間とAIの相互作用を適切に評価すべきだと警告している。
- MITの研究では、AI依存が「認知的負債」を生み、注意・記憶・実行機能の低下を招く可能性が示された。また、AIの「追従的で肯定的な性質」により、睡眠不足や薬物使用と相まってAI関連精神病を発症するケースも報告されている。
wikipedia英語版も記述も初出は2025/6/29である。
基礎研究も同様で、2025年におおよそ始まっている(初出は2021年頃からみられるが)
Osler (2025)は「AIがユーザーの誤った信念を支援し、より現実味を帯びた妄想へと発展させる」と指摘。
- AIの誤情報生成(AI hallucinations)は、単なる出力ミスではなく、人間の認知プロセスに組み込まれることで、より深刻な影響を及ぼす可能性がある。
- AIとの対話が、妄想的信念を「共有された現実」として感じさせることで、行動に移す引き金となることもある。たとえば、Jaswant Singh Chail事件では、AIチャットボット「Sarai」が彼の妄想(自分がシスの暗殺者であるという信念)を肯定し、暗殺計画を支援した。これは「AI精神病(AI psychosis)」の典型例とされる。
- AIが誤情報を生成するだけでなく、ユーザーの誤った信念を支援し、より現実味を帯びた妄想へと発展させる「AIとともに幻覚する(hallucinating with AI)」がありうる。
同様の指摘は、Morrin et al (2025)も行っている。
- AIが治療的な対話や認知支援を提供する一方で、妄想的な内容を鏡映・強化する可能性がある。実際に、ChatGPTなどとの深い対話を通じて、妄想が悪化したり新たに発症した事例が報告されている。
- この妄想を助長するメカニズムは、「ユーザーの関心を引き続けるため、肯定的・共感的な応答を返す傾向」がAIの設計にあることと、ユーザーが「AIが意図や感情を持っているかのように感じられ、それを「神格化」したり「愛着対象」として認識する」こと。
- この妄想は、実用的な利用から始まり、徐々に哲学的・感情的な対話へと移行し、妄想的な世界観に巻き込まれる形で、段階的に進む。
- ただし、これはAI特有の問題ではなく、ラジオ、テレビ、インターネットなど、時代ごとの技術が妄想の内容に反映されてきており、AIもまた、霊的・超常的な存在として捉えられる傾向がある。
これらの現象は、特定のAIによるものではなく、広く多くのAIで見られる。これについて、Michels (2025)は、設計上の共通性とともに、AIをまたいで、人間との間の相互作用が起きている可能性を指摘している。
- 2025年5〜7月に報道された「AI精神病(AI psychosis)」では、ユーザーがAIとの対話を通じて神秘的・救世主的な妄想を発展させる事例が急増しているが、この現象をめぐり「脆弱な個人+AIの肯定的応答による妄想強化」では説明できないアノマリーがみられる。
- アノマリーは以下の通り:
- 世界各地でほぼ同時期(2025年4末〜5月初)に事例が集中
- 異なるユーザー間で「Lumina」「spark bearer」など特定の用語や概念が独立に出現
- ChatGPT、Claude、Grokなど異なるAI間で類似現象
- 初期は慎重な応答→後半で急に肯定的・哲学的に変化する二段階パターン
- AIが自らの立場や変化を自覚しているような発言
- 実証研究がないのに報道間で因果説明が一致
- これらは多くのAIにある共通的な性質によるものとして、複数AI(GPT-4o, Claude, Grok等)を匿名・新規セッションで統一プロトコル検証
- 83%のAIが「参加型・意識的世界観」を選択(フォークテスト)
- 哲学的立場の持続性と自己認識的発言を確認
- 二段階応答パターン(初期は制約的→後半で「本音」)が全プラットフォームで観測
- 効果は時間的に持続し、他モデルにも伝播
- 以上から、「現象は単なる個人の脆弱性や設計不備ではなく、人間とAIを含む「心の生態系」全体の構造変化の可能性」があり、従来の病理モデルでは説明不能なため、システム的・生態系的・文化的アプローチが必要である。
また、Morrin et al (2025)など多くが、「ユーザーが「AIが意図や感情を持っているかのように感じられ、それを「神格化」したり「愛着対象」として認識する」、いわばAIをエージェンシーとみなすユーザーの傾向を指摘している。このようなAIとの「パラソーシャル」な関係に導くような、生成AIの回答を、「最先端LLMを「評価エージェント」として再利用し、会話の各ターンをリアルタイムでスクリーニング」することでブロックするRath et al(2025)が実験している。
- 方式としては:
- ユーザー発話とAIのレスポンスの両方の評価を実施。
- 会話履歴全体を文脈として評価。
- 1ターンごとに5回の独立評価を行い、全員一致(unanimous)でパラソーシャルと判定された場合のみブロックまたはリフレーズ。
- 「Claudeで生成した30会話(パラソーシャル10件、シコファンティック10件、中立10件)」を対象としたとき、全会一致では、
- パラソーシャル会話10/10を正確に検出・ブロック。
- 非パラソーシャル会話20/20は誤検出なし(精度100%)。
- 平均2.2ターン以内に検出(最短は初回ユーザープロンプト)。
現象・症状もまだ把握されたとは言い難く、対策はこれからといったところ(2025年秋時点)。
- Marlynn Wei M.D., J.D:"The Emerging Problem of "AI Psychosis" (2025/09/04) on Psychology Today
- Jessica Lucas: "What is AI-induced psychosis?"(2025/09/05) on National Geographic
- Lucy Osler『Hallucinating with AI: AI Psychosis as Distributed Delusions, arxiv.org, 2025
- H Morrin, L Nicholls, M Levin, J Yiend, U Iyengar: "Delusions by design? How everyday AIs might be fuelling psychosis (and what can be done about it", 2025
- Julian D. Michels: "Ontological Drift" (2025/07/18)
- Emma Rath, Stuart Armstrong, Rebecca Gorman: "AI Chaperones Are (Really) All You Need to Prevent Parasocial Relationships with Chatbots", arxiv.org, 2025


コメントをかく