2026年3月17日、中国科学技術協会の公式アカウント・科普中国は「なぜAI(人工知能)はいつも事実を捏造するのか」と題し、AIがもっともらしいうそをつく「ハルシネーション(幻覚)」現象について、訓練データが正確であっても特定の問題では間違いが不可避であるとする最新の研究結果を紹介した。
記事は、OpenAIとジョージア工科大学の研究者が25年9月に発表した論文を取り上げ、AIの幻覚が「統計的制約」と「不合理な評価制度」という二つの構造的原因から生じていると説明。
また、現在主流のAI評価制度が人間の試験と同じ二元的な採点方式を採用していることも幻覚を助長していると指摘。AIが正直に「知らない」と答えた場合も誤答と同じ0点になるため、低い確率でも回答を推測したほうが数学的な期待値が高くなり、結果として捏造(ねつぞう)を「学習」してしまう構造になっていると報じた。
記事はさらに、研究者がこの問題の解決策として、評価制度に「捏造を罰し、正直さを報いる」仕組みの導入を提言したことを紹介。「知らない」と回答した場合に減点しない、あるいはわずかなボーナス点を与えるといった制度設計が有効との認識に至ったことを伝えている。
その上で、AIの幻覚は事前学習段階に起源を持ち、高得点を追求する後続の学習段階でさらに増幅される可能性があると総括。重要な情報についてはAIを安易に信用せず、必ず自身で事実を確認すべきだと警告した。(編集・翻訳/川尻)











