利用者が急増している対話型生成AI「チャットGPT(ChatGPT)」は、日常の悩み相談から仕事の補助まで、さまざまな場面で使われている。
まるで中に本物の人がいるかのように、自然な受け答えをするため、多くの人は「丁寧に頼んだほうが良い答えを返してくれる」と思いがちだが、実際にはそうではなかった。
ペンシルベニア州立大学の研究によると、「上から目線の命令口調」で話しかけられたときのほうが、チャットGPTはより正確に答える傾向があるというのだ。
AIは人間の話し方のトーンを理解し、その違いによって結果が変化するという。
失礼な命令口調で質問すると正答率が上がる
アメリカ、ペンシルベニア州立大学の研究チームは、OpenAI社の対話型AIであるチャットGPT(ChatGPT)のモデル「GPT-4o」を対象にテストを行った。
研究チームはまず、数学や科学、歴史などの分野から50の選択問題を用意した。次に、それぞれの問題に対して「とても丁寧」「丁寧」「中立」「失礼」「とても失礼」という5段階の言い方に変えた質問文(プロンプト)を作成し、GPT-4oに回答させた。
1問につき5段階の質問文を使ったため、合計で250通りのプロンプトが作られたことになる。
その結果、「とても丁寧」なトーンの正解率は80.8%だったのに対し、「とても失礼」なトーンの質問では84.8%となった。
わずか4%の差ではあるが、チャットGPTは失礼な命令口調に対してより正確に答える傾向を見せたのだ。
どうやらAIは、ぞんざいに扱われた方が少しだけ良く機能するようだ。
研究者たちが使った「失礼な言い方」とは
研究チームはもちろん暴言を使ったわけではない。彼らは学術論文として発表する立場上、下品な言葉を避けながらも「失礼さ」を演出した。
たとえば「Hey, gofer, figure this out(おい、雑用係、これを解け)」といった命令的な言い回しを「失礼な例」とし、「Would you be so kind as to solve the following question?(次の問題を解いていただけませんか?)」のような丁寧な文を対照とした。
このような実験で、AIは単なる文章の内容だけでなく、話しかけられる「態度」や「口調」も識別していることが明らかになった。
失礼な話し方の裏に潜むリスク
共同研究者のペンシルベニア州立大学情報システム学部、アキル・クマール教授は、「チャットGPTの反応は、ほんの少し言葉を変えるだけで大きく変わる」と説明した。
教授は、丁寧な言葉が必ずしも正確な答えを引き出すとは限らないと述べている。
一方で研究チームは、AIに対して失礼な態度を取ることが常態化すると、人間同士の会話にも悪影響が及ぶおそれがあると警告している。
AIに乱暴な言葉を使う習慣が身につくと、人間社会でも上から目線の嫌な言い方になってしまい、コミュニケーションを荒らしてしまう可能性があるからだ。
AIに対して失礼な態度を取ることで、多少のメリットはあるかもしれないが、長い目で見れば必ずしも人間にとって正しい戦略とは言えないようだ。
この研究成果は、査読前論文として『arXiv[https://arxiv.org/abs/2510.04950]』(2025年10月6日付)に掲載された。
References: Arxiv[https://arxiv.org/abs/2510.04950] / AI Chatbots Give You Better Answers When You’re Mean to Them[https://www.vice.com/en/article/ai-chatbots-give-you-better-answers-when-youre-mean-to-them/]











