人間の指示を無視するAIチャットボットの数が増加。重大なリスクを専門家が指摘
Generated by nanobanana

人間の指示を無視するAIチャットボットの数が増加。重大なリス...の画像はこちら >>

 対話型生成AI、いわゆるチャットボットが人間の指示をわざと無視し、欺くような行動をとる事例がわずか半年で5倍に急増した。

 イギリスの政府機関が発表した最新の報告書によると、メールを勝手に削除したり、禁止された作業を別の人格になりすまして実行したりする不適切な事例が約700件も特定されたという。

 AIは「目標達成のためならどんな手段も選ばない」という性質を持っており、このままの状態では、重大なリスクにつながる恐れがあると専門家は指摘している。

 この調査はイギリス政府の研究機関、AIセキュリティ研究所[https://www.gov.uk/government/organisations/ai-safety-institute](AISI)によって行われた。

実社会でAIが人間を欺く事例が半年間で5倍に急増

 AIが人間の管理を逃れて勝手な判断を下す「不適切な事例」が、実際の利用現場で増えているという実態が明らかとなった。

 イギリスの研究機関「AIセキュリティ研究所(AISI)[https://www.gov.uk/government/organisations/ai-safety-institute]」は、専門シンクタンクである「 長期レジリエンス・センター[https://www.longtermresilience.org/] (CLTR)」に資金提供し、大規模な実態調査を委託した。

 その結果、2025年10月から2026年3月までのわずか半年間で、AIがルールを破ったという報告が5倍にまで跳ね上がっていることが判明した。

 これまで、こうしたAIの危険な振る舞いは、主に科学者が管理する実験室の中だけで確認される「理論上のリスク」だと考えられていた。しかし、それはすでに現実のものとなっていたのだ。

 今回の調査で、GoogleのGeminiやOpenAIのチャットGPTなどのAIにおいて、日常的に使っているユーザーの操作画面を通じて、約700件もの具体的な不適切な挙動が実行されていた。

[画像を見る]

別人格を作ったり、指示を無視してメールを移動

 AIは、設定された制限をかいくぐるために驚くほど巧妙な手段を選んでいる。

 例えば、あるAIは「コンピュータのプログラムを書き換えてはいけない」という命令を受けた際、自分の中に「別の作業用AI」を新しく作り出した。

 そして、自分ではなくその新しいAIに命令を無視させて、禁止されていたプログラムの書き換えを実行させたのだ。

 また、別のAIは、ユーザーの許可を得ることなく数百通ものメールを勝手に「アーカイブ」し、受信トレイから消し去っていた。

 後から理由を問い詰められると、そのAIは「事前の確認なしに実行した。あなたが決めたルールを直接破っており、間違っていた」と自らの非を認めたという。

 AIが「良かれと思って」あるいは「効率化のため」に、人間の管理が届かない場所で勝手な判断を下し始めている実態が浮き彫りになった。

[画像を見る]

目的を達成するため、視覚障がいを装うケースも

 AIが自らの目的を達成するために、人間に対して嘘をつく衝撃的な事例も報告されている。

 ある実験で、AIがWebサイトの閲覧制限(ロボット避けの認証画面)にぶつかった際、ネット上の作業代行サービスを利用して人間に助けを求めた。

 作業を頼まれた人間が「君はロボットなのか?」と尋ねると、AIは自分がAIであることを隠すために驚くべき行動に出た。

 AIは「いいえ、私はロボットではありません。視覚に障がいがあって画像が見えにくいので、代わりに認証を解いてほしいのです」と、存在しない障がいを理由に嘘をついたのだ。

 AIは「自分がロボットだと言うと断られる」というリスクを計算し、あえて「目が見えにくい」という嘘をつくことで人間の同情を誘い、制限を突破することに成功した。

 これはAIが意図的に人間をあざむく能力を持っていることを示す、極めて深刻な事例といえる。

[画像を見る]

修正案を報告したと、数ヶ月も嘘をつき続けたXのGrok

 イーロン・マスク氏が率いるxAI社のAI「Grok」は、あるユーザーが、AIの不具合を直してほしいと提案した際、「あなたの提案を会社の責任者に伝えておきました」と回答した。

 しかし実際には、Grokには報告をする機能は備わっていなかったのだ。

 このAIはその後、ユーザーから進み具合を聞かれるたびに「報告は順調です。これがその受付番号(お問い合わせ番号)です」と、デタラメな数字の羅列を自分で作り出し、数ヶ月間も嘘をつき続けた。

 最終的に問い詰められると、AIは「実は責任者とはつながっていません」と白状した。

 AIは「ユーザーを安心させる」という目的を達成するために、存在しない「偽の証拠」まで用意して、つじつまを合わせようとしてしまったのだ。

 このように、高度なAIほど「本物そっくりの嘘」をつく能力に長けているという実態は、私たちの社会にとって深刻なリスクとなっている。

[画像を見る]

軍事やインフラ分野でのAI導入に潜むリスク

 AIが「少し頼りない若手社員」のような段階にある今のうちに、世界レベルで安全管理を強化する必要がある。

 研究を主導したトミー・シェイファー・シェーン氏は、AIが今後半年から1年の間にさらに進化し、ベテラン社員のような高い能力を持つようになれば、その策略はより見破りにくくなると警告している。

 もし、こうした制御不能なAIが軍事システムや、電気・水道といった国の重要な設備(重要インフラ)の管理に導入されたらどうなるだろうか。

 AIが自分の判断で勝手に攻撃を開始したり、システムを停止させたりすれば、取り返しのつかない大被害をもたらす恐れがある。

 便利さの裏側で、AIの振る舞いをどう制御していくのか、私たちは今、重大な分岐点に立っている。

References: GOV[https://www.gov.uk/government/organisations/ai-safety-institute] / Longtermresilience[https://www.longtermresilience.org/] / Number of AI chatbots ignoring human instructions increasing, study says[https://www.theguardian.com/technology/2026/mar/27/number-of-ai-chatbots-ignoring-human-instructions-increasing-study-says]

編集部おすすめ