人間を装うAIの群れがSNSを覆い尽くす 研究者が警告する次世代情報戦争
Image by Istock <a href="https://www.istockphoto.com/jp/portfolio/OleCNX?mediatype=photography" target="_blank">Ole_CNX</a>

人間を装うAIの群れがSNSを覆い尽くす 研究者が警告する次...の画像はこちら >>

 SNSで議論していたはずの話題が、ある日を境に同じ意見ばかりになり、反対の声が急に消えることがある。

 多くの人は、多数派の意見に価値があると感じやすく、その方向に引き寄せられるからだ。

 ノルウェーの研究者たちは、その心理を狙って「人間のように振る舞うAIの群れ」が世論を動かし、異論を封じ、民主主義を揺さぶる可能性があると警告した。

 見分けがつきにくく、休まず動き続ける。そんな存在が情報戦争の道具になる未来が、すぐそこまで来ている。

 この査読済みの研究成果は『Science[https://www.science.org/doi/10.1126/science.adz1697]』誌(2026年1月22日付)に掲載された。

人間そっくりに振る舞うAIの群れがSNSを牛耳る

 ノルウェー経営大学や、同国の技術研究機関SINTEFの研究者たちが警戒するのは、AIが単体で活動する姿ではない。

 多数のAIが連携し、ひとつの集団としてSNSに入り込み、投稿や反応を積み重ねて世論を動かす仕組みである。

 研究チームはこの集団を「AIの群れ(AI swarm)」と呼んでいる。

 AIの群れが厄介なのは、人間の行動をまねて検知を避けながら、自然発生の支持が広がっているように見せられる点にある。

 特定の意見が、あたかもコミュニティ全体の総意になったように感じさせることで、議論そのものの形を変えてしまうのだ。

[画像を見る]

多数派に従いたくなる心理が狙われる

 論文の共著者である、ノルウェー経営大学のヨナス・クンスト教授は、人間には集団に同調しやすい傾向があると指摘する。

 多くの人が支持している意見には価値があると受け取りやすく、その性質がAIの群れに利用されやすいのだという。

 AIの群れは、同じ主張に賛同する投稿を増やし、反対意見を目立たなくできる。

 さらに、流れに逆らう利用者に対しては、怒れる群衆のような反応を演出し、集中的に攻撃して発言を続けにくくする道具にもなり得ると研究者は述べている。

[画像を見る]

これまでのボットと何が違うのか

 SNSには以前からボットが存在する。ボットは人間ではないアカウントで、プログラムの指示どおりに投稿や反応を繰り返す。

 研究チームは、インターネット上の半分以上が自動化された活動だと説明している。

 従来型のボットは、同じ文を繰り返し投稿するなど単純な行動が多く、発見されやすい面があった。また、大規模に動かすには人間側の調整も必要だった。

 ところが、次世代のAIの群れは、大規模言語モデル(LLM)に統率される点が違う。

 AIの群れは、侵入先のコミュニティに合わせて振る舞いを変え、記憶と自己同一性を保ちながら、複数の人格を使い分けることが可能だという。

 クンスト教授は、学習し、適応し、人間の弱点を突くことに特化していく自己完結的な存在だとしている。

[画像を見る]

すでに起きた実験が示す現実味

 AIによる大規模な情報操作は机上の空論ではない。

 2025年、チューリッヒ大学の研究者は、掲示板サイトRedditの人気フォーラム「r/changemyview(意見を変えてもらうことを目的に議論する場)」でAIチャットボットを使い、約400万人の利用者の意見を操作する実験を行った。

 これに対し、Redditのモデレーター[https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/]は、無許可で実験を行ったことによる法的措置をとると警告したが、実験の結果、AIの返信は人間の利用者より3~6倍説得力が高かったという。

年中無休で動くAIの群れの驚異

 AIの群れは、数百から数千、場合によっては100万規模のAIエージェントで構成される可能性がある。

 クンスト教授は、その影響は数の大きさと、SNS企業が対策として設ける制限に左右されると述べる。

 ただし、数の多さだけが武器ではない。地域の小さなコミュニティのように、新規参加者が少しでも増えれば、少数でも影響を与えられる可能性がある。

 論文の筆頭著者で、ノルウェーの研究機関SINTEFの研究者ダニエル・シュレーダー氏は、高度なAIほど必要な数は少なくなると述べている。

 また、AIの群れは、24時間365日、年中無休で投稿することができる。

 人間は疲れ、時間にも限りがあるが、AIは情報が定着するまで粘り強く働ける。

 この性質は、認知戦(人の認識や判断に影響を与えることを目的とした攻撃)で大きな武器となる。

[画像を見る]

AIの群れに対する防衛策はあるのか?

 AIの群れに対抗する手段はあるのか?

 研究者はその対策として、SNSを運営する企業に対し、アカウント認証の強化を呼び掛ける。

 実在する人間である証明を随時行えば、AIの群れを展開させるためのコストは上がる。

 ただし、匿名で政治的発言を行わなければ危険が及ぶ国や地域では、認証強化が異論を言いにくくする可能性がある。

 また、本物のアカウントが乗っ取られたり、売買されたりする問題も残る。

 そのほか、リアルタイムの通信を監視して統計的に不自然なパターンを探す方法や、学術機関やNGOなどが連携して調査と啓発、対応を行うA監視組織のような枠組みも提案されている。

 研究者らは、選挙などの大きな出来事が混乱させられる前に備える必要があると訴えている。

References: Science.ubc.ca[https://science.ubc.ca/news/2026-01/ai-swarms-could-hijack-democracy-without-anyone-noticing] / Science[https://www.science.org/doi/10.1126/science.adz1697]

編集部おすすめ