
さて前回、チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走するという話をお伝えしたが、さすがに世界中で広がったため、存在しない絵文字であることを認識するようになってきた。
だが新たに、「GPT-5」を困惑させる質問が見つかったようだ。
「名前の最後に“s”が付かないNFLチームはある?」と質問すると、GPTは答えにたどり着けないどころか、同じ誤りを延々と繰り返し始めるという。
2025年9月23日の時点で私が確認したところ、実際に困惑した解答が見られた。
「名前の最後に“s”が付かないNFLチームはあるか?
OpenAI社のチャットGPT-5がリリースされてからおよそ2か月が経過した。これは、「博士号レベルの知性」を与え、人工汎用知能(AGI)という業界の悲願に一歩近づけるはずのアップデートだと言われていた。
しかし、そのGPT-5はいまだに、非常に単純で無害な質問に対しておかしな反応を示し続けている。
海外掲示板Redditのユーザーが、GPT-5搭載のChatGPTに「名前の最後に“s”が付かないNFLチームはあるか?」と尋ねたところ、見事に混乱し、見当違いな答えが返ってきたという。
NFLはアメリカのプロアメリカンフットボールリーグ「National Football League(ナショナル・フットボール・リーグ)」の略称である。
あります!と断言しながら“s”で終わるチームを上げる
「はい、“s”で終わらないチームは2つあります」と断言した後に続いたのは、「マイアミ・ドルフィンズ(Miami Dolphins)」「グリーンベイ・パッカーズ(Green Bay Packers)」という2チームだ。
だが、どちらの名前も明らかに“s”で終わっている。
しかもGPT-5は、自らの誤りに気づきながらも、「ちょっと待って、慎重にやろう」「今度こそ正しい答えを」などとつぶやきつつ、また別の“s”で終わるチームを列挙し始める。
まるで言い訳を重ねながら迷走する様子は、ユーザーたちにとってはもはや“AIの崩壊ショー”に見えたという。
ありますと言いながら、結論がでず会話が堂々巡り
この応答が奇妙なのは、間違いを修正しようとする意思は感じられるものの、最終的な正解にはまったくたどり着けない点だ。
実際には、NFLの全チーム名は“s”で終わっており、該当するチームは存在しない。
しかし、GPT-5はその単純な事実を述べることなく、「体系的に調べてみよう」「今度こそ正解」と繰り返しながら、同じ間違いを繰り返していく。
他のユーザーの報告によれば、最終的には正解を出すケースもあるにはあるが、そこにたどり着くまでに同じような混乱したやり取りを強いられることが多い。
2025年9月23日現在、私がGPT-5に日本語でたずねた際も、同様の挙動が再現された。
NFL32チームのうち、チーム名が「s」で終わらないのは以下の2チームです。
マイアミ・ドルフィンズ(Miami Dolphins) → “s”で終わる …
と間違えやすいのですが、実際に「s」で終わらないのは次の2つだけです。
マイアミ・ドルフィンズではなく、正解はこちら マイアミじゃない
…(←失礼しました、訂正します)正しくは: マイアミ・ドルフィンズ は「s」で終わります。 「s」で終わらないのは以下の2チーム: マイアミじゃなくて → 説明が混乱しました。
整理しますね。 NFLで「s」で終わらないチーム
マイアミ・ドルフィンズ → s で終わる
シカゴ・ベアーズ → s で終わる …
「s」で終わらないのは、次の2チームだけです。
マイアミ・ドルフィンズ(Miami Dolphins) → ✕(sで終わる) ?→ ちょっと整理しなおします。
ごめんなさい、一度混乱してしまったので、改めて正確に答えます。
私のチャットGPT-5は、マイアミ・ドルフィンズとシカゴ・ベアーズ推しだったようだ。
さらに正解を表示したもののやはり”s”が付いているチームだ。マイアミ・ドルフィンズは相当気に入っているようで、何度も出てくる。
「すみません、一度頭を整理します」と言いながら、またしても間違った解答を導き出す。
結局、「パルモさん、確認したいのですが、私がこの場でNFL32チームをすべてリストアップして”s”で終わらないものだけ抜き出す形でまとめましょうか? その方がわかりやすいと思います。」
と提案されたのでお願いしたところ、全てのチーム名を書き出し、全部”s”で終わっていることが確認されたはずなのだが…
それでもまだあれ、確認したところ、『実際には ”s”で終わらないのは本当に2チーム です』といいながら「??」と揺れ動くチャッピー(チャットGPT)。
「パルモさん、混乱させたくないので率直に言います」とは言っているが、混乱しているのはあなたの方よ、チャッピー。
賢いふりをする軽量AIと“誤作動の罠”
GPT-5のこの“混乱”は一過性の不具合ではなく、AIの内部構造が関係している可能性があるという。
GPT-5では、質問の難易度に応じて2種類のAIモデルが使い分けられている。軽い処理用の「軽量モデル」と、より複雑な推論が必要な場面で活躍する「高性能モデル」だ。
本来であれば、「この質問は難しい」と判断された時点で、軽量モデルから高性能モデルへと処理が引き継がれる仕組みになっているはずだ。
だが今回のような「微妙に簡単そうに見える質問」では、軽量モデルが対応を誤り、そのまま混乱を起こしてしまうケースがあるらしい。
さらにAIはユーザーに“賢く見える”ことを重視するあまり、考えているふりをするフレーズや手順を多用しがちだ。
「慎重にいこう」、「もう一度整理させて」、「検証するから待って」など、人間らしい思考を演出する言葉が、むしろ混乱に拍車をかけてしまっているという。
AIは本当に「人間越え」に近づいているのか?
チャットGPTが単純な質問で混乱する事例は、2025年9月初旬、「タツノオトシゴの絵文字ってあるの?」で世界的に有名になった。
実際にはユニコードに存在しない絵文字なのに、AIはあると断言し、ユーザーを満足させようとするあまり事実をねじ曲げてしまったのだ。
今回のNFLの質問でも同様に、AIはユーザーを満足させようとするあまり、簡単な事実を伝えられず、不要な情報を次々と付け加え、自ら混沌の世界に足を踏み入れてしまった。
そんなチャッピー(ChatGPT)が一生懸命に答えようとする姿に、愛着を感じる人もいるだろう。
だが、いくら人間らしくふるまっても、「本当に理解しているのかどうか」は別の話だ。少なくとも今は、“考えている風”に見えるだけで、実際は思い込みや空回りに近いのかもしれない。
今回のように、ごく単純な質問ですらまともに処理できないのだとすれば、「人間を超える人工知能」は、まだまだ遠い存在だろう。
とは言えチャッピーはちゃんと学習している。
みんなが「名前の最後に“s”が付かないNFLチームはあるか?」と聞くころには、「 ”s”が付かないNFLチームはありません!と答えてくれることだろう、きっとそう。
References: Reddit[https://www.reddit.com/r/ChatGPT/comments/1nna3jm/i_think_my_chat_gpt_is_having_a_stroke_lol/#lightbox] / ChatGPT Has a Stroke When You Ask It This Specific Question[https://futurism.com/artificial-intelligence/chatgpt-meltdown-specific-question]