
SNSは人と人をつなぐ便利なツールである一方で、意見の対立や分裂を深めてしまう温床でもあるといわれている。だが、そうした問題はSNSの構造にあるのか?人間の本質にあるのか?
この疑問を確かめるため、オランダの研究者たちは、500体のAIチャットボットだけを集めて、広告もアルゴリズムも存在しない仮想SNSを構築した。
その中で、AIボットたちがどのように交流し、何を発信するのかを観察するという実験を行った。
すると驚くべきことに、AIボットたちは自らの思想によって仲間を分け合い、反対意見には反発し、やがて自分と似た考えしか受け入れない“偏った世界”を作り始めたのだ。そう、まるで人間と同じように。
この実験は、私たちが日々使っているSNSそのものが、対立を加速させる「装置」になる可能性を示している。
仮想SNSをAIでシミュレーション
実験を行ったのは、オランダ・アムステルダム大学の研究チームだ。彼らは、OpenAIが開発した軽量AIモデル「GPT-4o mini」を搭載したAIチャットボット500体を使い、それぞれに異なる政治的立場や性格を持たせた“仮想ユーザー”を作り出した。
このAIたちは、広告もおすすめ機能も一切ない、シンプルなSNS上に放たれた。
投稿は時系列順に並び、「アルゴリズム」と呼ばれる、自分の好みに合いそうな投稿を自動で選んで表示してくれる仕組みも使われていない。
ただ純粋に、ボットたち自身の判断で投稿を読み、返信し、他のユーザーをフォローし、リポストするように設定されていた。
つまり、人間社会でよく批判される「アルゴリズムによる操作」は完全に排除された状態だった。
AIが思想の違いによって対立
シミュレーションは5回にわたって行われ、それぞれの試行では1万回以上のアクション(投稿・フォロー・返信など)が記録された。
その中で明らかになったのは、AIボットたちが「自分と似た考え方の相手」を好み、「異なる考え方の相手」からは自然と距離を取るようになったということだ。
中立的な仕組みにもかかわらず、ボットたちは次第に意見の近い者同士でグループを形成し、反対の立場にある相手とは交流を避けるようになっていった。
これは、現実のSNSでもよく見られる「意見の二極化」や「政治的な対立」とそっくりだ。
たとえば保守派とリベラル派、右派と左派のように、価値観の違いが強調されることで、互いに歩み寄ることが難しくなっていく構図である。
偏った世界を生む「エコーチェンバー」
このような現象は「エコーチェンバー[https://ja.wikipedia.org/wiki/%E3%82%A8%E3%82%B3%E3%83%BC%E3%83%81%E3%82%A7%E3%83%B3%E3%83%90%E3%83%BC%E7%8F%BE%E8%B1%A1]」と呼ばれている。
自分と同じような意見を持つ人の投稿ばかりしか見ないため、異なる意見に触れる機会が減っていく。
その空間でのみコミュニケーションを繰り返しているため、まるでエコー(反響)のように、自分と同意見が何度も返ってくるため、自分が正しく、それらが世の中一般においても正しく、間違いないものであると信じ込んでしまう。
やがて、反対意見に対しては敵意や嫌悪感を抱くようになり、対話が成り立たなくなる。SNS上の過激な対立や炎上の多くは、この仕組みから生まれている。
今回の実験では、人間の偏見を排除したはずのAIたちでさえ、自然とこの構造に引き込まれていったのだ。
過激な意見ほど人気が出るのはAIも一緒だった
さらに興味深いのは、最も過激で極端な意見を投稿するボットが、最も多くのフォロワーとリポストを獲得していたという点だ。
まるで「過激なほど目立つ」「刺激的な意見ほど得をする」というSNSの現実を、そのまま再現したかのようだった。
つまり、穏やかでバランスの取れた意見よりも、対立を煽るような発言の方が注目を集めやすいという構造は、AIの世界でも変わらなかったのだ。
介入しても状況はほとんど変わらなかった
研究者たちはこの偏りや対立を和らげようと、いくつかの方法で介入を試みた。
投稿の表示順を調整したり、バズ投稿の価値を下げたり、フォロワー数やリポスト数を非表示にしたり、プロフィールを隠したりと、さまざまな設定を変えてみた。
しかし、そのいずれも目立った効果はなかった。最も効果のあった方法でも、過激な投稿への反応が6%減少しただけにとどまったという。
むしろ、プロフィールを隠したケースでは逆効果となり、ボットたちはさらに過激な意見に反応するようになってしまった。
「SNSの構造」に問題がある可能性
この実験結果はむしろ当然の結果かもしれない。なぜなら、AIは人間の行動をもとに学習しているからだ。
つまり、AIが偏った行動をするのは、それが「私たち人間が日々SNS上でしていること」を模倣しているからに他ならない。
問題なのは、「SNSの構造そのものが、なぜここまで意見の対立を生みやすいのか」という点である。
今回の実験では、ユーザーの好みに合わせて投稿を自動で選んでくれる「アルゴリズム」も、特定の投稿を目立たせる広告も一切存在しない、最も“公平”なSNS環境でさえ、対立と過激化が自然に生じた。
SNSは単なるコミュニケーションツールではない。そこには、私たち自身の弱さや偏りが、静かに、しかし確実に刻み込まれているのだ。
この研究のプレプリントは『arxiv[https://arxiv.org/abs/2508.03385]』(2025年8月5日付)に掲載されている。
References: Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation[https://arxiv.org/abs/2508.03385]
本記事は、海外の記事を参考に、日本の読者向けに重要な情報を翻訳・再構成しています。