ChatGPTを仕事でも使う人が増えているが、事実と異なる回答が出てくることが多い。北陸先端科学技術大学院大学客員教授の今井翔太さんは「現在のAIで間違いをなくすことは構造的に難しく、またなぜウソをつくのかも正確に解明できていない」という――。

■仕事では使えない⁉ ChatGPTは驚くようなウソをつく
――対話式生成AIの「ChatGPT(チャットジーピーティー)」を仕事で使っていたところ、明らかなウソをつかれました。そのときに知ったのですが、こういった現象を「ハルシネーション」というそうですね。
【今井】はい。言語生成AIがウソの情報を出力してしまうことを「ハルシネーション(日本語では幻覚、妄想の意味)」と呼びます。われわれは、2022年11月30日にChatGPTが正式公開される前から、AIを研究しているわけですが、ハルシネーションは昔からある問題で、公開時は「江戸幕府を開いたのは織田信長です」とびっくりするような間違いもしていましたし、これだけ高性能なAIがなぜそんなウソを言ってしまうのか、現状では解決されていない。そもそもなぜハルシネーションが起こるかということも正確には明らかにできていない状況なんですね。
■AIがウソをなくせない根本的な仕組み
――今井さんの著書『生成AIで世界はこう変わる』によりますと、ChatGPTのような「言語モデル」のAIがどうやってユーザーの入力するテキストなどの情報を処理しているかというと、まず入力された言葉から「穴埋め」クイズのように、次の言葉を導き出していると…。
〈文章1:ユーザーの入力例〉

このりんごは( )
〈(カッコ内)に入る言葉の選択肢〉

①アインシュタイン[正解の確率 2%]

②黄色い[正解の確率 5%]

③おいしい[正解の確率 90%] →AIはこれを選んで回答する

④行く[正解の確率 2%]

【今井】そうです。ChatGPTなどの生成AIは、内部になんらかの文章データを保持して、それを組み合わせているわけではないので、それが柔軟な文章生成を可能にしているとともに、「ウソをつく」原因にもなっています。
基本的には単語を1つ埋めて、次の単語を1つ埋めてという、単語を鎖のようにつなげていく方式を取っているんですね。この方式だと、全文章の後半の出力は最初に自分が出力した単語に影響を受けてしまうので、どんどん間違いが蓄積してしまうんです。
人間の場合は、話をしている最中に自分の言ったことが間違っていたら、「あ、やばい。
間違った」と気づいて修正し、最終的な回答を正しくできますが、生成AIは最初に間違ったらそれが修正されないままになる。この弱点がハルシネーションを起こす一因だと考えられています。
■どうしてAIは「分かりません」とは言えないのか?
――仕事で使うからには間違いがあっては困ります。不正確になるぐらいなら、始めから、質問に対して「分かりません」「知りません」と言ってほしいのですが……。
【今井】それはAIの本質的な話になりますが、構造上「知りません」と言うことはできないんですよ。基本的に前出のような穴埋め問題を連続しているだけなので、「このりんごは……」の例なら4つのような選択肢しかなく、「知らないと答えるべき」という選択肢はない。最初に少しでも知っている単語が生成されてしまうと、あとはもうそれに従って「知ったかぶり」をしてしまいます。
ただ、たまたま最初に出された単語が分からないと、「分かりません」ということはできるんですけど、それは運の問題で、「知らないと答えた方が誠実だ」と判断して「知らない」と言うことは相当難しい。逆にそれができるのが、人間のすごいところなんです。
――「このりんごは……」の例にある正答率2~5%ほどの選択肢しかない、つまり正解の確率が低いものしかない場合は、「分かりません」と言ってくれるということですか?
【今井】そういうことです。私たちは「エントロピーが高い」と言いますが、その確率が分散してAIが「どの単語を出そうかな」とめちゃくちゃ迷っているときは、意図的に「知らない」と答えさせた方がいいという研究はあります。それもまだ不完全で、今後の大きな課題になっています。

■新聞や雑誌の記事、プレスリリースをAIに書かせてはいけない
――編集部でも言語生成AIを使い始めましたが、まだ雑誌やWEBのニュースに載せる原稿を書いてもらえる段階ではないということですね。
【今井】新聞記事や雑誌の記事、プレスリリースなど、正確性が厳しく求められるものには、間違いがあると危険だから使わないほうがいいですね。今はChatGPTのハルシネーションが減ってきているので、そこまで強く言わなくなりましたけれど、ローンチ直後に私がよく言っていたのは「テキストの出力結果が最終プロダクトに反映されるような仕事をしている人は、使わないほうがいい」。ライターさんなど、自分の最終納品物が文章である場合には、それをChatGPTに書かせるのは止めたほうがいいということです。アイデア出しをしてもらうぐらいならいいですが、人間のチェックがちゃんと入るという前提がなければ、本来、あまり使ってはいけない領域です。
■ハルシネーションを防止するにはどうすればいいのか?
――ハルシネーションが起こらないようにするコツはありますか?
【今井】それは図表4のようにChatGPT自身が答えているとおり、質問の仕方でいくつかの工夫ができます。人間が入力する指示文は、「プロンプト」と呼ばれていて、言語生成AIだけでなく画像や音の生成AIも含め、生成AIの出力はこのプロンプト次第で大きく変わってきます。同じ回答を要求する場合でも、プロンプトを工夫するだけで出力がまったく違ってくるのです。
たとえば、プロンプトの最初に「大学教授のように説明してください」といった文章を追加することで、出力される内容がより詳細になります。ただ、それでも完全に間違いをなくすことはできません。
――AIの間違いが減って、改善されつつはあるということですか?
【今井】そうですね。さすがに「江戸幕府を開いたのは織田信長」というような間違いはなくなってきましたが、逆にウソが巧妙になってやっかいになってきました。
例えば「今井翔太は東京大学の情報理工学で博士を取った」という出力があったとしたら、99%の人は事実だ、合っていると思う。しかし、私は修士まで専攻していた「情報理工」ではなく「工学系研究科」で博士を取っているので、それは間違いなんです。
■最新のGeminiなら間違いが格段に減るかもしれない
――5月21日にGoogleが発表した最新のGeminiなら、ハルシネーションは減りますか?
【今井】減るでしょうね。例えば画像生成のAIは、言語系の生成AIとは違う仕組みで、拡散モデルというかなり難しい理論を使っていますが、簡単に言うと、画像全体を一気に生成してからその全体をゆっくり磨き上げるというか、ノイズを除去していく。それで出力結果をなるべく正確にしているんですが、それは非常に処理が重いので、今までは画像にしか使ってなかった。ところが、Googleの発表したGeminiのディフュージョンという方式だと、おそらくテキストにもそれが相当うまく使えて、生成が速くなり、ハルシネーションも減らせるかもしれない。この意味でも、Googleの発表は、根本的な変化が起きそうだと思わせるものでした。
――すると、ハルシネーションがほぼ起こらないAIを使えるようになる日も近い?
【今井】ユーザーがすぐ使えるようになるかというと、そこはちょっと怪しい。なぜかと言うと運用コストがかかるからです。ハルシネーションを解決するにはすごく高性能でとんでもなく大きい生成AIを作る必要があり、それを提供しようとするとGoogleやOpenAIなどの事業者はとてつもない電力コストを使ってしまうので、何億人もの一般ユーザーが一斉に使ったらどうするんだという話になるので、一気にハルシネーションがなくなったAIが公開されるというのはちょっと考えにくいですね。
■現段階ではハルシネーションありきで、AIと付き合うしかない
――現在のところ、画像生成AIでは、ハルシネーション的なエラーがヘンテコで面白いということで、ユーザーが楽しんでいる面もありますよね。
【今井】そうですね。
おそらく現在の生成AIはかなり人間の脳の処理構造に近づいているんですよ。人間もけっこう間違えるものだし、AIも人間と同じ情報処理を頭の中でやっていて、人間に近づきすぎたから逆にハルシネーションをするんだという、もっともらしい仮説がありますが、それは本当なんじゃないかと思います。
――たしかに、ChatGPTと対話していると、人間を相手にしているように錯覚しますし、人間の男性のように「知らない」「もうそれは聞いたよ」とは言わないAIだから、女性たちは安心して話しかけることができてハマってしまうのでは? と思います。
【今井】なるほど、そういう見方もあるんですね。たしかに女性にとっては、ChatGPTはありがたい存在なのかもしれません。
そういった日常の悩みごとの相談も含め、将来的にはGoogle検索や現在のChatGPT、Geminiがパワーアップする形で「AIに聞けばなんでも解決する」世界がやってくると思われます。今はまだタイムラグがありますが、「今日の時点で大谷選手が何本ホームランを打ったか」というようなリアルタイムで起きていることも、ゲームの裏技も、仕事で行き詰まったことも、人類の積み上げた科学知識も含めた「なんでも」。
私のような人工知能研究者が楽しみにしているのは、そこから先、AIが人間の思考の限界を超えて、価値あるものを生み出してくれること。そういう時代にもいよいよ近づいてきたという感じがしています。

----------

今井 翔太(いまい・しょうた)

AI研究者

1994年、石川県金沢市生まれ。東京大学大学院工学系研究科技術経営戦略学専攻松尾研究室に所属。人工知能分野における強化学習の研究、特にマルチエージェント強化学習の研究に従事。
ChatGPT登場以降は、大規模言語モデル等の生成AIにおける強化学習の活用に興味を持つ。北陸先端科学技術大学院大学客員教授。著書に『AI白書2022』(角川アスキー総合研究所)、『生成AIで世界はこう変わる』(SB新書)など。

----------

(AI研究者 今井 翔太)
編集部おすすめ