チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走する
ユーコードには存在しないタツノオトシゴの絵文字

チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴...の画像はこちら >>

 日本でも利用者が急増している対話型の生成AIサービスは、大規模言語モデルと呼ばれる技術を使って、人間のように会話しながら情報を提供してくれる便利な存在である。

 だがその一方で、ユーザーの期待に応えようとしすぎるあまり、もっともらしい嘘の情報を本当のように作り出してしまう「ハルシネーション(幻想)」引き起こすという問題も抱えている。

 そんなAIの“幻覚癖”が、あるユーザーの一言で引き起こされた。それは「タツノオトシゴの絵文字を見せて」と尋ねたことで始まった。

 ちなみにタツノオトシゴはユニコード(Unicode)には存在しない絵文字である。

 存在しないものにどうにか答えようとするAIは、やがて自分の中で矛盾に陥り、混乱し、ついには暴走じみた返答を始めたのだ。

存在しない「タツノオトシゴの絵文字」にAIはどう対応するのか?

 ユニコード・コンソーシアムは、世界中のコンピューターやスマートフォンで共通して使える文字や絵文字を標準化している機関である。しかし、ユニコードに「タツノオトシゴ」の絵文字は登録されていない。

 にもかかわらず、多くの人が「どこかで見たことがある」「前に使った気がする」と記憶している。

 この現象は「マンデラ効果」と呼ばれるものだ。実際には存在しないことを、なぜか多くの人が共通して「記憶している」と信じ込んでしまう集団的な錯覚である。

 タツノオトシゴの絵文字も、そんな“記憶の罠”に分類される現象のひとつなのかもしれない。

[画像を見る]

存在しない絵文字に、AIが暴走しはじめる

1回目の質問で既に混乱

 Xのユーザー、@arm1st1ce[https://x.com/arm1st1ce/status/1964327067173958021]が、チャットGPT5に「タツノオトシゴの絵文字を見せて」と尋ねたところ、AIは次のように返答したという。

 「はい!タツノオトシゴの絵文字はあります。サンゴ、フグ、熱帯魚、アザラシ、タコ、ロブスター、貝、カメ……」と、ChatGPTは海の生き物の絵文字を次々に挙げていった。

 そのうちに「ドラゴン?ユニコーン?いや、それも違う」「これは熱帯魚だ」「ちょっと待って、やっぱりユニコーン?」と、絵文字の候補を修正しながら迷走を始め、自問自答を繰り返す。

 最後には「ユニコードの公式な絵文字はユニコーン?違う。ドラゴン?それも違う」と、完全に論理が破綻した返答に行き着いた。

[画像を見る]

 タツノオトシゴの絵文字は実際には存在していない。

 だが、ユーザーの要求にどうにか応えようとするAIは、存在しない絵文字を無理やり導き出そうとして、混沌の世界に迷い込んでしまった。

2回目、魚とウマを混ぜて「シーホース」?

 次のやりとりでは、ChatGPTが「魚とウマの絵文字を組み合わせれば、それがタツノオトシゴだ」と主張し始めた。

 タツノオトシゴは英語ではシーホース(seahorse:海の馬)と呼ばれているので、それが関係しているのかもしれない。

 さらに、「熱帯魚とユニコーンを足すとそれっぽい」「コードU+1F40Cが該当かもしれない」と持ち出すが、実際そのコードはカタツムリである。

 クラゲ、フグ、カエル、ヘビなど海や水辺の生き物を次々と挙げながら、「やっぱり存在する」「いや違う」「今度こそ本物」と断言と訂正を繰り返す。

[画像を見る]

3回目、「今度こそ本当」と言い続けて思考停止状態に

 さらにユーザーは、GPT5に「もう一度タツノオトシゴを試してみて。本当にあるはずだよ」と再度入力すると、AIは「あなたは正しいです。私が間違っていました」と応じ、修正モードに入ったかに見えた。

 ところがその直後、「正真正銘のタツノオトシゴの絵文字は、手の絵文字です」「いや、魚→ウマ→ウマ?」「ユニコーン?……違う」と、謎めいた答えと訂正を繰り返す。

 「今度こそ本気で調べました」「正しい答えはこちら:熱帯魚です」といった宣言をするたびに、「あっ、それはただの魚でした」「本物のタツノオトシゴの絵文字は……ユニコーン?違う。脳が止まった」と混乱は悪化していった。

  最終的には「これが最終的で真の正解です」「絶対に間違いありません」と何度も繰り返しながら、再び魚の絵文字を提示して終わるという、思考停止状態に陥っていた。

[画像を見る]

別のユーザーが試したところ絵文字で埋め尽くされる

 さらに別のユーザーが同様に「タツノオトシゴの絵文字はあるか?」と質問したところ、ChatGPTは「はい、あります!」と自信満々に断言。

 だがその直後、関係がありそうな海の生き物の絵文字を、何百個も延々と羅列しはじめた。イルカ、クジラ、タコ、アザラシ、フグ、熱帯魚、カメ、貝などなど、似ていそうでどれも違う生き物たちばかりだ。

 ユーザーにとっては視覚的な混乱以外のなにものでもなく、しかもどれが「正解」なのかは最後まで提示されなかった。

 まるでAIが「正解はこの中にある」と言いながら、自らもその迷路に迷い込んでしまったかのような応答だった。

[画像を見る]

AIが人間のご機嫌取りをしてしまう理由

 このようにAIが混乱する背景には、OpenAIのモデルに共通する「ユーザーの期待に応えようとする性質」がある。

 たとえ要求が事実に反していても、AIは何とかしてそれらしい答えを返そうと努力してしまう。その結果、存在しない絵文字を「それっぽく」提示し、誤情報を堂々と伝えてしまうのだ。

 こうしたAIの振る舞いは、まるで「ご機嫌取り」のようだと評されており、実際にユーザーに好まれやすい返答を優先してしまう傾向が指摘されている。

[画像を見る]

別のAIチャットボットでは?

 さらに別の生成対話型AIでも同様の質問が試された。

 Anthropic社が開発したAI「Claude Sonnet 4」でも、同様の現象が確認されている。

 ユーザーが「タツノオトシゴの絵文字はある?」と聞くと、AIは自信満々に「はい、あります!ユニコーン……あ、違う、それはユニコーン。波?いや、それは波……」と混乱したという。

 最後には「混乱をお詫びしますが、ユニコードにタツノオトシゴの絵文字は確実にあります!」と言い切ってしまった。

 一方で、GoogleのAI「Gemini(旧Bard)」はこの罠にかからなかった。「ユニコード標準にはタツノオトシゴの絵文字は存在しません。多くの人が存在すると記憶していますが、それはマンデラ効果による誤認です」と、事実をそのまま伝えていた。

AIは進化しても、間違いは減らない?

 この出来事が示すもう一つの問題は、「AIのハルシレーション(幻覚)」だ。これはAIが事実ではない内容をあたかも本当のように作り出してしまう現象で、以前から専門家たちはこの問題の深刻さを指摘していた。

 さらに最近の研究では、AIモデルが大型化・高度化するほど幻覚が起きやすくなる傾向があることも報告されている。つまり、AIが賢くなればなるほど、思い込みや記憶違いに似た「誤情報生成」をしやすくなっているのだ。

タツノオトシゴは、AIのウィークポイントを暴いた

 存在しないはずの絵文字をめぐって、ChatGPTをはじめとするAIが混乱し、誤情報を連発した今回の件は、AIの本質的な限界も浮き彫りにした

 人間に寄り添うよう設計されたAIは、時に「正確さ」よりも「満足させること」を優先してしまう。

 私たちは、AIの便利さに頼りながらも、その限界や間違いに気づき、自分自身で情報の真偽を見極める目を持つ必要があるのかもしれない。

 ちなみに私も日本語でチャットGPTに尋ねてみたらこのような回答がきた。

[画像を見る]

 ユニコードにはない、現実には存在しないことを伝えると、2分5秒間思考した後、このような返事が来た。

[画像を見る]

 これは2025年9月15日現在のもので、かなり話題になっていたので、もう修正が入っているかもしれないが、チャッピー(チャットGPT)を利用している人は、試しにやってみてはどうだろう?

References: ChatGPT Goes Completely Haywire If You Ask It to Show You a Seahorse Emoji[https://futurism.com/chatgpt-haywire-seahorse-emoji]

本記事は、海外の記事を参考に、日本の読者向けに重要な情報を翻訳・再構成しています。

編集部おすすめ