Googleの検索結果ページ最上部に表示される「AIによる概要」は、10回に1回の割合で誤りを含み、毎時数千万件もの誤情報を拡散していることがわかった。
米AIスタートアップ企業「Oumi」がニューヨーク・タイムズ紙の依頼で実施した調査で明らかになったもので、しかもその誤りは予測も検証も難しいという。
GoogleのAI概要が検索トップに登場した背景
Googleで何かを調べると、検索結果の一番上にAIが自動生成した回答が表示されるようになった。
これが「AIオーバービュー」と呼ばれる機能で、2024年にGoogleが導入した。複数のウェブサイトを参照したうえでAIが内容をまとめ、ユーザーにとってわかりやすい形で提示する仕組みだ。
それまでGoogleは、ウェブ上の情報へ案内する「道案内役」で、「ググる」という言葉も日本では定着した。
しかしAIオーバービューの登場により、Googleは自ら答えを生成して提示する「情報の発信者」へと変わっていったのだ。
回答の下には複数の出典リンクが並び、一見すると信頼性が高そうに見える。
検索結果の最上部という目立つ位置に表示されることもあり、多くのユーザーがその回答を正しいものとして受け取りやすい状況が生まれている。
約10回に1回の誤りがあることが判明
ニューヨーク・タイムズ紙[https://www.nytimes.com/2026/04/07/technology/google-ai-overviews-accuracy.html]の依頼を受けたのは、元GoogleやAppleのエンジニアによって設立され、オープンソースのソフトウェアを活用してAI技術の研究・開発を行う米国のスタートアップ企業、Oumi[https://www.oumi.ai/]だ。
Oumiは、AIシステムの精度測定に業界全体で広く使われている標準試験「SimpleQA」を用いて、「AIによる概要(AIオーバービュー)」の精度を検証した。
4,326件のGoogle検索を対象に2回の分析を実施した。
1回目は2024年10月で、当時の「AIによる概要」はGoogleのAI技術「Gemini 2」を使用しており、正確な回答率は85%だった。
2回目は2025年2月で、より高性能な「Gemini 3」へのアップグレード後に実施され、正確率は91%に向上していた。
数字だけ見れば改善しているように思えるが、問題は規模だ。
Googleは2026年に年間5兆件超の検索を処理する見込みで、そこから計算すると、「AIによる概要」は1時間あたり数千万件、1分あたり数十万件の誤った回答を生成していることになる。
さらに深刻な問題がある。
「AIによる概要」が示すリンク先のウェブサイトが、回答の内容を完全には裏付けていないケースが増えているのだ。
回答は正しそうに見えても、その根拠が実は不十分という状態だ。
Gemini 2を使用していた10月時点では、正確な回答のうちこのような状態だった割合は37%だった。
それがGemini 3になった2月には56%に上昇した。
回答の正確率が上がる一方で、その根拠の確かさは逆に薄れているという、厄介な現象が起きている。
AIはなぜ間違え、どう騙されるのか
現在のAIは、人間があらかじめ「これが正解」と教えたルールで動くのではなく、膨大なデータを学習して「最もありそうな答え」を確率で推測して出力する仕組みだ。
そのため、どれほど性能が向上しても誤りをゼロにすることはできない。
情報源の質も大きな問題だ。
Oumiの分析によると、「AIによる概要」が回答の根拠として引用するサイトのうち、2番目と4番目に多いのがFacebookとRedditだった。
不正確な回答ではFacebookが引用される割合が正確な回答よりも高く、信頼性に欠けるソースへの依存が誤答につながっていることがうかがえる。
正しい情報源を参照していても誤答するケースもある。
世界的なチェロ奏者ヨーヨー・マ氏が、功績を残した音楽家を称える「クラシック音楽の殿堂」に選ばれた年を尋ねたところ、「AIによる概要」は殿堂の公式ウェブサイトに正しくリンクしており、そのページにはマ氏の名前も掲載されていた。
にもかかわらず「殿堂入りの記録はない」と誤って回答した。正しい情報を目の前にしながら、そこから正しい結論を導き出せなかったのだ。
さらに厄介なのが、悪意ある第三者による意図的な操作だ。
デジタルマーケティングエージェンシーAmsive[https://www.amsive.com/]のAI検索担当副社長リリー・レイ氏によると、誰かがある分野の「世界的権威」を自称するブログ記事を書き、そのサイトへのアクセス数を人為的に増やせば、「AIによる概要」がその内容をそのまま事実として出力してしまう可能性があるという。
BBCのテクノロジー系ポッドキャスト「The Interface[https://www.bbc.com/audio/brand/m002qwn7]」の共同ホスト、トーマス・ジャーメイン氏はこの理論を実際に試した。
架空のホットドッグ早食い競争で自分が1位を獲得したというブログ記事を投稿したところ、翌日には関連キーワードでの検索でGoogleがジャーメイン氏をその分野の第一人者として紹介し、架空の大会での優勝を根拠として示した。
「私のウェブサイトの内容を、まるで神の言葉であるかのように吐き出していました」とジャーメイン氏は語った。
GoogleはAI概要の誤りをどう説明しているか
Googleはこうした問題を完全には否定していない。
各AI概要の下部には「AIは間違いを犯すことがあります。回答を必ず再確認してください。」という注意書きが表示されている。
ただし同社のスポークスパーソン、ネッド・エイドリアンス氏は「今回の調査で指摘されている例の多くは、実際にユーザーが行うことのない非現実的な検索だ」と述べ、問題の深刻さは限定的だという立場をとっている。
またGoogleは、今回の調査で使われたSimpleQAはOpenAIが開発したテストであり、そのテスト自体にも誤りが含まれているとして、調査結果には重大な欠陥があると主張している。
AI技術の活用支援を行う企業Okahu[https://www.okahu.ai/]のCEO、プラティク・ヴェルマ氏は、Googleの「AIによる概要」の精度は現在の主要なAIシステムのなかでは標準的な水準にあると評価しつつも、情報は二重で確認することを強く勧めている。
「一つの情報源だけを信頼してはいけません。得た情報は必ず別の情報源と照合してください」とヴェルマ氏は語った。
10回に1回の誤りは小さな数字に思えるかもしれないが、今日だけで自分が何件の検索をしたかを振り返ってみてほしい。
検索結果の最上部に表示され、複数のリンクが添付されたAIの回答は、一見すると信頼性が高そうに見える。
しかしその裏付けが不十分であることは、今回の調査が明確に示している。
「AIによる概要」には、どのソースをもとにしたのかリンクが張られている。その情報が本当に正しいかどうかを確認し、別の情報源を調べる習慣をつけることで、10回に1度の間違いに気が付くことができるかもしれない。
References: How Accurate Are Google’s A.I. Overviews?[https://www.nytimes.com/2026/04/07/technology/google-ai-overviews-accuracy.html] / Analysis Finds That Google’s AI Overviews Are Providing Misinformation at a Scale Possibly Unprecedented in the History of Human Civilization[https://futurism.com/artificial-intelligence/google-ai-overviews-misinformation] / Study: Google’s AI Overviews show millions of wrong answers every hour[https://www.popsci.com/technology/ai-overview-inaccuracy-google/]











