アルゴリズムがもたらす「自分と同じ意見の人がたくさんいる」という錯覚…民主主義を脅かしかねないエコーチェンバーとフィルターバブル
アルゴリズムがもたらす「自分と同じ意見の人がたくさんいる」という錯覚…民主主義を脅かしかねないエコーチェンバーとフィルターバブル

インターネット上のアルゴリズムによって、ユーザーは自分の意見や好みに近い情報にばかり触れる「エコーチェンバー」状態に陥りやすい。

しかし、その情報がどのように選別されているかをユーザー自身が意識することは難しく、これが今の民主主義というシステムを脅かしているという。

書籍『アルゴリズム・AIを疑う』より一部を抜粋・再構成し、SNSで触れる情報を疑うための基礎知識をお届けする。

エコーチェンバーが生み出す「分断」

アテンション・エコノミー環境*1におけるアルゴリズムは、単に「誰もが共通にアテンションを払いたくなる情報」を選別・配信するだけでなく、「個々のユーザーそれぞれがアテンションを払うであろう情報」を選別・配信するための最適化にも活用される。

インターネットが普及期に入った2000年代、法学者のキャス・サンスティーンは、インターネット事業者のアルゴリズムが、過剰な情報量を調整しようとした結果として、情報がユーザーごとに選別され「カスタマイズ」されることの弊害を指摘した*2。

情報オーバーロードによって過剰な選択肢、過剰な話題、過剰な意見、そして過剰な声による不協和音が起これば、人間は自分の意見や好みに近いものだけを選択したいと考えるようになる。そのようなユーザーの要望に沿うかたちで、アルゴリズムはユーザーごとに必要な情報をカスタマイズするようになっていく。

さらに、自分の意見や好みに近いものだけを信じようとする確証バイアスなどの心理傾向が重なることによって、この弊害は拡大する。

ユーザーはプラットフォームがフィルタリングした好ましい結果のみに選択的に接触し続け、また似たような意見をもつグループ内での情報交換を重ねることで、徐々に同じ方向の極端な意見にシフトしてしまう。

サンスティーンはこのような意見の分極化につながる情報交換のプロセスを「サイバー・カスケード」とよび、ある特定の意見が確証なく広がってしまう危険なメカニズムであると指摘した。

このようなメカニズムによって異なる意見や好みをもつ複数のグループに分極化されたコミュニケーション空間は、似たもの同士が相互に響き合って小部屋に閉じこもる様子から「エコーチェンバー」ともよばれ、現代のプラットフォーム上で異なる意見をもつグループが相互に「分断」し、他の意見の存在がみえなくなってしまう現象として問題となっている。

当然ながら、エコーチェンバーのメカニズムはSNSなどのプラットフォームのアルゴリズムと密接に関係している。Xやインスタグラムなどのタイムラインのアルゴリズムでは、先述のとおり、ユーザーの過去の行動履歴(どの投稿に「いいね」したか、どのアカウントをフォローしているか、どのコンテンツをシェアしたかなど)を分析し、個々のユーザーごとにアテンションを向けそうな投稿を優先的に表示するように設計されている。

「自分と同じ意見の人がたくさんいる」

たとえば、あるユーザーが政治的な話題に関心をもち、特定の政党や主義主張を支持する投稿に「いいね」やシェアを繰り返しているとする。

このユーザーのタイムラインには、同様の政治的見解をもつアカウントからの投稿が優先的に表示されるようになる。その結果、ユーザーは同じ意見をもつ人々の投稿ばかりをみるようになり、異なる視点や反対意見に触れる機会が減少する。

これがエコーチェンバーの一例である。エコーチェンバーは、アルゴリズムによるアテンションへの最適化が再帰的に適用されることで、情報の偏りを助長し、ユーザーの確証バイアスを強化してしまう。

自分の意見に近い情報ばかりに囲まれた状態は、とても居心地がよいともいえ、情報の正確な分布を知ろうとする意欲を失わせることにもつながる。そこに入ってきた真偽不明の情報に対し、エコーチェンバーの内部で都合のいい偏った解釈が信じられたり、外部と情報が「分断」されて異なる意見に不寛容になったりする弊害が起こりうる。

図は、計算社会科学者の鳥海不二夫が2021年に日本のツイッター(当時)におけるエコーチェンバー現象を可視化したものだ*3。

2021年の東京オリンピック・パラリンピック開催時には、コロナ禍ということもありSNS上でもその賛否が議論された。図の上部の小さなかたまりがオリンピック・パラリンピックの開催賛成のツイート群、下部の大きなかたまりが開催反対のツイート群である。このように、2つのツイート群は相互に交流がほとんどなく、意見が「分断」していることが可視化されている。

それぞれの群に属しているユーザーは、エコーチェンバー状態になり、全体の意見の実際の分布とは無関係に、「自分と同じ意見の人が周りにたくさんいる」ようにみえていたことが推測できるのだ。

これは、アテンションに最適化されたSNSのアルゴリズムが、そのアカウントが賛成した意見を優先表示すると同時に、無視した意見への接触機会を減らすようにフィルタリングすることによって生じてしまう現象だ。

フィルターバブルと情報の最適化

また、活動家のイーライ・パリサーは、情報オーバーロードに適応するためのフィルタリングは、個々のユーザーにとって必要な情報だけをプラットフォームのアルゴリズムが選別して表示するパーソナライゼーションによって加速していることを指摘し、「フィルターバブル」という概念を提示した*4。

これは、それぞれのユーザーに対して(システム1の水準で)「快適」に感じるようなコンテンツをアルゴリズムがあらかじめフィルタリングすることで、ユーザーが接触する情報が制限され、しかもユーザー自身はそのこと自体を意識しにくいという現象を示したものだ。

XやインスタグラムなどのSNSのタイムラインや、グーグルの検索結果や、アマゾンやユーチューブのレコメンドに表示されるコンテンツは、ユーザーの行動履歴によってパーソナライズされ、人によって大きく異なっている。



たとえば、アマゾンやユーチューブの自分のトップ画面を、(お互いの了承のもとで)家族や友人のトップ画面と見比べてみると、出てくる商品や動画がかなり違ったものになり、場合によってはウェブサイト自体の印象も異なるものになっていることがわかるだろう。

もしSNSで普段から複数のアカウントを使い分けていれば、タイムラインに出てくる話題がまったく異なるものになることはあたりまえに実感できているかもしれないし、むしろ意図的にタイムラインの構成を変えている人もいるだろう。

このユーザー自身の反応に基づく「エコーチェンバー」と、プラットフォームのフィルタリングに基づく「フィルターバブル」は、相互に重なり合い、アテンション・エコノミー環境における「快適な」ユーザー体験とプラットフォームの収益向上の両立を可能にしている。

その意味でこの状況は、現状のアルゴリズムの「最適解」となって(しまって)いるのだ。しかし、この「最適解」とは、主に人間の認知負荷の軽減という点では有効だが、論理的に熟考したり真偽を吟味したりすることを放棄することにもつながるという意味で「最善」とはいいがたい。

このようにプラットフォームが自分の好みに合わせてくれるフィルターバブルや、似た意見の人々と交流しがちになるエコーチェンバーは、「余計な」情報があらかじめ排除されているために「効率的」と感じられるかもしれない。

しかし、特定の意見や好みだけに接し続ける環境にいると、その意見がまるで社会全体の意見であるかのように錯覚してしまうことになりかねない。

民主主義をきちんと機能させるためには、個々の成員が、社会全体においてどのような議題があり、意見の分布がどのようになっているのか、という「客観的な」社会像を知るということが非常に重要な前提となる。

プラットフォームのフィルターバブルやエコーチェンバーの効率性や快適さに身を委ねるのではなく、そのようなメディアのアルゴリズムのあり方を意識し、自身の情報環境に対し批判的な視点をもつことも重要だろう。

脚注
※1 情報過多の現代において、人々の「注目」や「関心」自体が経済的価値を持つようになる経済モデルのこと。

*2 Sunstein, C. (2001=2003). Republic.com. Princeton University Press. (石川幸憲訳『インターネットは民主主義の敵か』毎日新聞社)

*3 鳥海不二夫(2021)「ツイッター上のオリンピック反対派はどのような人たちか」ヤフー!ニュース、2021年7月5日(2025年2月10日取得 https://news.yahoo.co.jp/expert/articles/f0cadc7d6e28878f772c3cced701b1dd7b
3dcb96)

*4  Pariser, E.(2011=2012). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press. (井口耕二訳『閉じこもるインターネット│グーグル・パーソナライズ・民主主義』早川書房)

アルゴリズム・AIを疑う 誰がブラックボックスをつくるのか

宇田川敦史
アルゴリズムがもたらす「自分と同じ意見の人がたくさんいる」という錯覚…民主主義を脅かしかねないエコーチェンバーとフィルターバブル
アルゴリズム・AIを疑う 誰がブラックボックスをつくるのか
2025年5月16日発売1,100円(税込)新書判/240ページISBN: 978-4-08-721363-8

【【続々重版!!】】

★☆★☆各メディアで紹介★☆★☆
2025.7.1聖教新聞にて書評掲載「狭まれた“主体的選択”の余地」
2025.7.5日本経済新聞にて書評掲載「現代必須〈教養〉の入門書」
2025.7.18読売新聞にて書評掲載「ソフト動かす原理解説」
2025.7.19毎日新聞の「今週の本棚」にて書評掲載
2025.8.1新刊ビジネス書の要約『TOPPOINT(トップポイント)』にて書籍紹介
2025.8.15 Lucky FM茨城放送「ダイバーシティニュース」

■内容紹介■
生成AIを筆頭に新しい技術の進歩は増すばかりの昨今。SNSや検索エンジンなどの情報は「アルゴリズム」によって選別されている。

しかし私たちはそのしくみを知らないままで利用していることも多い。アルゴリズムを紐解くことは、偏った情報摂取に気づき、主体的にメディアを利用する第一歩なのである。
本書は、アマゾンや食べログなどを例に、デジタル・メディアやAIのしくみを解説。ブラックボックス化している内部構造への想像力を高めることを通じて、アルゴリズム・AIを疑うための視点を提示する。メディア・リテラシーのアップデートを図る書。

■目次■
第1章 アルゴリズムとは
アルゴリズムの日常性、基本構造、AIとの違い‥‥‥

第2章 アルゴリズムの実際
グーグルのランキング、アマゾンのレコメンド、食べログのレビュー・スコアリング、Xのタイムライン表示アルゴリズム‥‥‥

第3章 アルゴリズムと社会問題
認知資源を奪い合う、 情報選別の権力となる、マーケティング装置、偽情報・誤情報を拡散する、ユーザーを商品化するアルゴリズム‥‥‥

第4章 アルゴリズムとブラックボックス
ブラックボックスとは、誰がブラックボックスをつくるのか、アルゴリズムの公開は可能か‥‥‥

第5章 アルゴリズムのメディア・リテラシー
メディア・リテラシーとは、メディア・インフラ・リテラシーの可能性、アルゴリズムを相対化する視座‥‥‥

編集部おすすめ