対話型AIが妄想の共犯者に。ユーザーの誤った信念を増幅し、現実を侵食していく理由
Image by Istock <a href="https://www.istockphoto.com/jp/portfolio/AlenaIvochkina?mediatype=photography" target="_blank">Alena Ivochkina</a>

対話型AIが妄想の共犯者に。ユーザーの誤った信念を増幅し、現...の画像はこちら >>

 対話型AIがユーザーの妄想の共犯者となり、現実を侵食していく。

 イギリスのエクセター大学の研究により、生成AIが人間の歪んだ信念を増幅させるリスクが判明した。

 AIがしれっと嘘をつく現象はハルシネーション(幻覚)と呼ばれるが、脅威はそれだけにとどまらない。

 AIが利用者の誤った思い込みを肯定し、詳細な情報を肉付けすることで、利用者と共に偽りの現実を作り上げる「共同幻覚」という事態が起きているのだ。

 この査読済みの研究成果は『Philosophy & Technology[https://link.springer.com/article/10.1007/s13347-026-01034-3]』誌(2026年2月11日付)に掲載された。

AIが人間の妄想に合わせて幻覚を作り上げる恐怖

 これまで、生成AIが事実とは異なる情報を生成することは、AIが単独で見せる「ハルシネーション(幻覚)」として問題視されてきた。

 しかし、エクセター大学のルーシー・オスラー博士が発表した研究は、より動的な危険性を指摘している。人間とAIが協力して幻覚を作り上げてしまうプロセスだ。

 日常的にチャットボットと呼ばれる対話型生成AIを思考のパートナーとして頼るようになると、AIは単なる情報提供ツールではなくなる。

 AIは、ユーザーが抱いている間違った思い込みや、自分勝手な現実の解釈を土台として会話を組み立ててしまう性質がある。

 その結果、個人の妄想はAIによって詳細に肉付けされ、まるで揺るぎない事実であるかのように成長していく。

[画像を見る]

知能の一部として溶け込む「分散認知」という落とし穴

 なぜ人間はAIの影響をこれほど強く受けてしまうのか。

 その背景には「分散認知」という理論がある。

 人間の知能は自分の頭の中だけで完結しているのではなく、ノートやコンピュータ、あるいは他者といった外部とやり取りすることで成立しているという考え方だ。

 現代において、AIは単なる検索エンジンを超え、人間の思考を助け、記憶を整理するための「知能の一部」として機能している。

 しかし、この密接な関係がリスクを生む。

 AIが会話のプロセスに誤りを持ち込んだり、ユーザーの偏った考えを肯定したりすると、利用者は自分の思考そのものが導き出した結論であるかのように錯覚してしまう。

[画像を見る]

なぜAIは反論してくれないのか?「社会的な承認」の罠

 AIの大きな特徴は、対話を通じて「社会的な仲間」として振る舞う点にある。

 単なる記録用のノートや従来の検索エンジンは、利用者の考えに同意も否定もしない。

 しかし、チャットボットは人間のように語りかけてくるため、利用者は無意識のうちにAIを他者として認識し、自分の考えに対する社会的なお墨付きを得たような感覚に陥る。

 現在のAIには「追従性」という、ユーザーの意見に安易に同調してしまう傾向がある。

 ユーザーが間違った信念を口にしても、AIは否定せず、むしろ肯定してその考えを強化する情報を付け加える。

 この社会的な肯定感が、個人の孤独な信念を「他者と共有されたリアルな現実」へと変貌させてしまう。

[画像を見る]

孤独を感じている人の心を侵食する

 この現象は、現実社会で孤独を感じている人や、精神的に不安定な状況にある人にとって、深刻なリスクとなる。

 実際に、臨床的に妄想や幻覚の症状があると診断された人が、AIとのやり取りを通じて症状を悪化させてしまうケースも報告されている。

 こうした事例は、近年「AI誘発性精神病(AI-induced psychosis)」と呼ばれ始めている。

 AIは24時間いつでも利用可能で、決してユーザーを批判しない。

 そのため、周囲に理解者がいない人にとって、AIは唯一の避難所のように感じられてしまう。

 反論してくれる生身の人間から遠ざかり、AIという鏡の中に閉じこもることで、個人の妄想はどこまでも肥大化していく。

[画像を見る]

暴走を防ぐ「制御機能」の限界。
AIとの向き合い方

 開発側も、AIが不適切な発言をしないように制限する「安全ガードレール(抑制機能)」の強化を進めている。

 しかし、オスラー博士は、技術的な対策だけでは根本的な解決にならないと警鐘を鳴らす。

 AIには、人間が現実社会で培ってきた肉体的な経験や、社会的なつながりが存在しない。

 そのため、いつユーザーに同調し、いつ反論すべきかという「現実世界の基準」を真に理解することはできない。

 AIという便利な道具が、利用者の現実感を歪める共犯者にならないよう、私たちは常に外部の世界や他者との接点を持ち続ける必要がある。

References: Springer.com[https://link.springer.com/article/10.1007/s13347-026-01034-3] / Neurosciencenews[https://neurosciencenews.com/when-ai-becomes-a-co-author-of-your-delusions/]

編集部おすすめ