AIチャットボットはニュースを正確に要約できない。重大な誤りが多いことが判明
Photo by:<a href="https://www.istockphoto.com/jp/%E3%82%B9%E3%83%88%E3%83%83%E3%82%AF%E3%83%95%E3%82%A9%E3%83%88/ai%E3%83%81%E3%83%A3%E3%83%83%E3%83%88%E3%83%9C%E3%83%83%E3%83%88%E3%83%AD%E3%83%9C%E3%83%83%E3%83%88-%E3%82%A2%E3%82%AF%E3%82%BB%E3%82%B9-gm1701652586-538756851" target="_blank">iStock</a>

AIチャットボットはニュースを正確に要約できない。重大な誤り...の画像はこちら >>

 生成AIの一種、チャットボットは、メールやコードの作成、プログラミングや事務処理など、多くの作業を効率化する便利なツールだ。だが、このAIがニュースを正確に伝えられるかという点では、まだ課題が多い。

 「AIは無限の可能性を秘めているが、誤った情報を広めるリスクもある」と、英BBCニュース・時事部門のCEO、デボラ・ターネス氏は、自社が行った調査結果[https://www.bbc.com/news/articles/c0m17d8827ko]を受けてこう警鐘を鳴らした。

 調査対象となったのはOpenAIの「ChatGPT」、Microsoftの「Copilot」、Googleの「Gemini」、Perplexity AIの「Perplexity」の4種だ。

 いずれも有名なチャットボットだが、それらが手がけたニュースの要約の半数以上に、事実や数字の誤りなど、重大な欠陥が見受けられたという。

AIニュース要約の半数以上に重大な誤りを発見

 今回の調査では、「ChatGPT」「Copilot」「Gemini」「Perplexity」の4種のAIチャットボットにニュース記事100件を要約してもらい、それについて専門知識があるジャーナリストに内容を評価してもらった。

 すると要約の実にに51%のに重大な問題があることが明らかになったという。またAIが引用したBBCニュースの19%で、事実・数字・日付などの間違いが発見された。

 そうした間違いは、たとえば次のようなものだ。

・英国国民保険サービスは禁煙の補助的な手段として電子タバコを推奨していない(実際はしている/Geminiの回答)

・リシ・スナク(英国の元首相)とニコラ・スタージョン(英スコットランド行政府の元首相)は在職中である(実際は辞任している/ChatGPTとCopilotの回答)

・イランは自制的な態度で、イスラエルは攻撃的な行動をとった(PerplexityがBBCニュースの引用として回答したもの。実際のニュースはこのように伝えていない)

 AIチャットボットの要約は誤った事実を伝えるばかりでなく、意見と事実の区別ができず、勝手に編集を行い、しばしば必要な文脈も説明されていなかった。

 さらに全体的に見ると、ChatGPTやPerplexityに比べると、CopilotとGeminiの方がより重大な欠陥を抱えている傾向にあったという。

[画像を見る]

AIのハルシレーション(幻覚問題)

 AIがしれっと嘘をつくことは以前から知られていた。こうした現象を「ハルシネーション(幻覚)」という。

 ハルシネーションが起きる原因の1つは、AIの知性と私たちの知性とが根本的に異なっていることであるようだ。

 シンシナティ大学のアンソニー・チェメロ教授が2023年に語ったところによると、高度な知能を持つといわれるAIは、そもそも言葉を理解していないのだという。

 統計的に次に来る可能性が高い言葉を羅列しているだけで、それが正しいかどうかなど気にもしない。

 また、2025年、スペインのバレンシア人工知能研究所のホセ・エルナンデス・オロヤ教授がWSJ[https://www.wsj.com/tech/ai/ai-halluciation-answers-i-dont-know-738bde07]に語ったところによると、ハルシネーションが起きる理由は、AIの設計に問題があるという。

 AIは「必ず何か答えること」を目標にして作られており、知らないことでも推測して答えを出すことで精度を向上させるように設計されている。

 それっぽいことを答えなければ正解の確率がゼロになるため、間違っていてもそれっぽい答えを出してしまうのだという。

[画像を見る]

メディアはAIとどう付き合うべきなのか?

 今回の調査では、こうした機械のたわごとが最新のAIでも消えていないことが証明されてしまった。

 BBCニュースのデボラ・ターネスCEOはブログ[https://www.bbc.co.uk/mediacentre/2025/articles/how-distortion-is-affecting-ai-assistants/]で、AIには「無限の可能性」がある一方、これを開発する企業は「火遊びをしている」ようなものと述べている。

 彼女が懸念するのは、こうしたAIによる虚偽情報が、現実世界に大きな被害をもたらすという可能性だ。

 それゆえに、AIによる要約記事を削除するべきだと訴える。実は以前、AppleのAI「Apple Intelligence」が表示するニュースの内容が不正確であるとして、BBCがその掲載をやめさせたことがあるそうだ。

 その一方で、BBCはAI企業と協力する方法も模索してもいる。

 同社はこれまでも「AI企業との新たな対話のきっかけ」を探してきたとのこと。今回AIの問題点が明らかになったわけだが、それでもメディアとAI企業は一丸となって解決策を探せるはずだと、ターネスCEOと述べている。

References: https://www.bbc.com/news/articles/c0m17d8827ko[https://www.bbc.com/news/articles/c0m17d8827ko] / https://futurism.com/ai-makes-up-answers[https://futurism.com/ai-makes-up-answers]

本記事は、海外の記事を基に、日本の読者向けに独自の視点で情報を再整理・編集しています。

編集部おすすめ