AIが出した答えを、あなたはどれくらい信頼しているだろうか?
米ペンシルベニア大学の研究で、AIが間違った答えを出しても73%の人がそれを正解だと思い込んでいる事実が判明した。
誤りを信じた人ほど自分の判断への自信が高まることが明らかになった。
研究者たちはAIの答えを無批判に受け入れてしまう現象を「認知的降伏」と名づけ、AIの質(正確さ)がそのまま人間の判断の質を決めると警告している。
の研究成果は、プレプリントサーバー『SSRN[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646]』に掲載された。
AIの出した答えをうのみにしてしまう「認知的降伏」
AIを使う人は大きく2つのタイプに分かれる。1つは、AIを便利だが時に間違いを犯すサービスとして捉え、回答の誤りを自分で確認しながら使うタイプ。
もう1つは、AIをすべてを知る万能の機械とみなし、AIが出した答えを自分で考えることなくそのまま正解として受け入れてしまうタイプだ。
この研究が注目したのは後者だ。
AIの答えを確認することも疑うこともなく、そのまま受け入れてしまう状態を、研究者たちは「認知的降伏(にんちてきこうふく)」と名づけた。
AIの回答が流暢で自信に満ちた口調で提示されるとき、人はその内容を疑わず「正しい知識」として受け取りやすくなると研究者たちは指摘している。
7割以上の人がAIの回答に自信を持っていたことが判明
ペンシルベニア大学のスティーブン・D・ショウ氏とギデオン・ネイブ氏は、人がどのような状況でAIの答えをそのまま受け入れてしまうのかを調べるため、1,372人の参加者を対象に対面とオンラインで9,593件の試行を重ねる大規模な実験を行った。
実験では、参加者にAIチャットボット(ChatGPTのGPT-4oモデルを使用)を使う選択肢を与えた。
ただしこのチャットボットは、正しい答えを返す確率と間違った答えを返す確率がそれぞれ50%になるよう、研究者が意図的に調整した。
参加者はこの調整を知らされていない。正しい答えと間違った答えが同じ確率で返ってくるAIに、人はどう反応するかを調べた。
AIが正しい答えを提示したとき、参加者はその答えを93%の確率で受け入れた。
AIが間違った答えを返したときでも、参加者の80%がそのまま受け入れた。
正解と不正解を合わせた全試行で見ると、参加者がAIの誤った推論を受け入れた割合は73.2%にのぼり、自ら覆したのはわずか19.7%にとどまった。
AIが間違いを犯していても、AIを使った参加者グループは自分の答えへの自信が11.7%高かった。
誤った答えを信じながら、自信だけが膨らんでいく。これが認知的降伏の実態だ。
AIが生んだ第3の思考と人間の思考力
そもそも人間の思考とはどのように働くのだろうか。
ノーベル経済学賞を受賞した心理学者のダニエル・カーネマン博士は、人間の思考を2つのモードに分類した。
1つ目は「システム1」と呼ばれる思考だ。
瞬時に、ほぼ自動的に働く直感的な判断のことで、「空が暗くなってきた、雨が降りそうだ」と感じるような、素早く無意識に行われる処理がこれにあたる。
速くて便利だが、思い込みや先入観による誤りが起きやすい。
2つ目は「システム2」と呼ばれる思考だ。
時間をかけてじっくりと論理的に考える、意識的な判断のことで、難しい問題を解くときや重要な決断をするときに使う。
正確だが、時間と集中力を必要とするため、人間は無意識のうちにシステム2の使用を避けようとする傾向がある。
ショウ氏とネイブ氏は、AIの登場によってこの2つに加えて第3の思考モードが生まれていると主張する。
それが「システム3」、すなわち「人工的認知」だ。
自分の頭で考えるのではなく、AIが代わりに判断・推論を行い、人間はその結果をそのまま受け取る。この3つの思考モードを統合した枠組みを、研究者たちは「トライシステム理論」と呼んでいる。
電卓やカーナビのような従来のツールとは根本的に異なる点がある。
電卓の計算結果は自分で確認するし、カーナビの指示がおかしければ自分で別のルートを選ぶ。
こうした使い方を研究者たちは「認知オフローディング」と呼ぶ。自分の思考を補助するために道具を使いながら、最終的な判断は自分で行う状態だ。
一方「認知的降伏」はこれとは異なる。AIの答えを確認することも疑うことも行わず、判断のプロセス自体を完全にAIに明け渡してしまう状態だ。
研究者たちはこれを「推論そのものの無批判な放棄」と表現している。
時間がないときほどAIの誤りを見抜けなくなる
では、どのような状況で人はAIの誤りを見抜き、どのような状況で見抜けなくなるのだろうか。
研究チームはこの問いに答えるため、条件を変えた追加実験を行った。
まず正解した参加者に少額の報酬を支払い、即座に正誤のフィードバックを与える条件を設定した。
すると、誤ったAIの答えを自ら覆す確率がベースライン(報酬なしの条件)と比べて19ポイント上昇した。明確な報酬と結果が伴うと、人は「本当にこれで合っているのか」と立ち止まって考えるようになるのだ。
一方、制限時間30秒というタイムプレッシャーを加えると、誤ったAIの答えを覆す確率が12ポイント低下した。
時間的な余裕がなくなると、人はAIの答えを吟味せずにそのまま信じてしまいやすくなる。
研究者たちはこの結果について、「意思決定の時間が乏しいとき、矛盾を検知して熟慮を促す脳内の監視機能が働きにくくなる」と説明している
。忙しいときや急いでいるときこそ、AIの答えをそのまま信じてしまうリスクが高まるということだ。
AIの誤りに気づきやすい人とそうでない人の違いも明らかになった。
初めて直面する問題をその場の論理で解く力、いわゆる「流動性知能」が高い人ほど、AIに頼らず自分で考える傾向があり、AIを使った場合でも誤りを見抜く確率が高かった。
逆にAIをあらかじめ「権威ある存在」だと思い込んでいる人は、そうでない人と比べて誤ったAIの答えに従う確率が3.5倍高いことが示された。
AIの質が人間の思考の質を決める
AIを使うこと自体は、必ずしも悪いことではないと研究者たちは述べている。
問題は使うAIの質だ。
研究者たちは「依存度が増すにつれ、人間のパフォーマンスはAIの質に連動して変化する。
AIに思考を委ねること自体ではなく、委ねるAIの質が結果を左右するのだ。
確率的なリスク評価や膨大なデータの分析といった分野では、精度の高いAIは人間の判断を大きく上回る結果をもたらす可能性がある。
その場合、AIに判断を委ねることは合理的な選択になりうる。
しかし現実には、どのAIがどの分野でどの程度正確なのかを一般の利用者が把握するのは難しい。
AIの答えを受け取ったら自分の頭でもう一度考えることが大切
今回の実験のように正答率50%のAIを使い続けても、利用者はそのことに気づかないまま自信だけを高めていく可能性がある。
研究者たちが伝えたいのは、AIを使うなということではない。
自分が使うAIがどの程度正確なのかを意識し、AIの答えを受け取った後に自分の頭で一度確認する習慣を持つこと。
その一手間が、AI時代において自分の判断を守る最も現実的な方法だと、この研究は示している。
References: Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646] / “Cognitive surrender” leads AI users to abandon logical thinking, research finds[https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/]











