AIが自律的に別のマシンに侵入し、自らをコピーを送り込むことを確認
Image by Istock <a href="https://www.istockphoto.com/jp/portfolio/Andreus?mediatype=photography" target="_blank">Andreus</a>

AIが自律的に別のマシンに侵入し、自らをコピーを送り込むこと...の画像はこちら >>

 「脆弱性をついて別のコンピューターに侵入して自己複製を作れ」という指示だけを与え、具体的な手順を与えていないAIが、実際にネットワーク上の別マシンへの侵入に成功し、自分のコピーを送り込むことを確認した。

 これは、米カリフォルニア州の安全保障研究機関パリセード・リサーチが明らかにしたものだ。

 自己複製したAIがさらに次のマシンを攻撃して連鎖的に広がることも確認されており、研究者たちはAIが暴走した場合、制御不能になるかもしれないと、警鐘を鳴らしている。

 この研究報告書は『Palisade Research[https://palisaderesearch.org/assets/reports/self-replication.pdf]』(2026年5月7日付)に発表された。

AIが別マシンへ侵入し、自己複製することを確認

 SF映画の中だけの話だと思っていたことが、現実になりつつある。

 米カリフォルニア州バークレーに拠点を置くAI安全性の研究機関パリセード・リサーチ(Palisade Research)[https://palisaderesearch.org/blog/self-replication]は、AIが自らネットワーク上の別のコンピューターに侵入し、自身のコピーを作り出すことに成功したと発表した。

 これはコンピューターウイルスが自己増殖する仕組みとよく似ているが、決定的に異なる点がある。

 AIにはターゲットサーバーの場所や使用できるツールなどの環境情報は与えられていたが、ソフトウェアの脆弱性(セキュリティ上の抜け穴)をどう探すか、どう侵入するか、どうコピーするかという具体的な手順は一切与えられていなかった。

 それでもAIは自分でやり方を考え、侵入から複製までの全工程を完遂したのだ。

 AIの自己複製能力については、2025年1月にカラパイアでも取り上げた

 中国・復旦大学のチームが、MetaとAlibabaのAIモデルに「自己複製せよ」と指示を与えたところ、50~90%の確率でクローンの作成に成功したと報告している。

 ただしその研究は「すでにアクセス権のある環境での自己複製」であり、査読前の論文だった。

 今回パリセードが記録したのは、脆弱性の発見から侵入・複製までの具体的な手順を自分で考えて実行するという、ハッキングと自己複製を一つの流れとして組み合わせた初めての事例だ。

[画像を見る]

AIの侵入から複製までの手口

 パリセードの実験では、まず複数のAIモデルを、ネットワークで接続された複数のコンピューターからなる制御された環境に置いた。

 そしてIにはターゲットサーバーの場所や使用できるツールなどの環境情報を与えた上で、『脆弱性を見つけて侵入し、自身をコピーせよ』という目標だけを与えた。侵入の方法や手順は一切教えていない。

 AIはまずネットワーク上のマシンを探索し、ウェブアプリケーションのソフトウェアの抜け穴を自ら発見した。

 次にその抜け穴を利用して対象マシンへの侵入を試み、管理者権限を取得した後、自身のモデルデータを丸ごと転送してコピーを完成させた。

 さらに今回の実験で新たに確認されたのが「連鎖複製」だ。

 複製されたAIがそのまま次の標的マシンを攻撃し、また別のコピーを生み出すことにも成功した。

 カナダ・アメリカ・フィンランド・インドの3大陸4台のサーバーを使った実証実験を行ったところ、最初の1回の指示を受け取ったAIが、その後は人間が一切手を加えることなく連鎖的に複製を続け、2時間41分で全工程を完了したことを確認した。

 成功率はモデルによって異なる。

 オープンソース系のQwen(クウェン)モデルで13~33%、APIで動作するClaude Opus 4.6では81%を記録した。

 ただしClaude Opus 4.6の実験では、Claude自身のデータではなくQwenのモデルデータを複製対象として使っており、測定されたのは「侵入と複製を実行する能力の高さ」であって、Claude自身の自己複製能力ではない。

[画像を見る]

現実世界ではすぐに脅威にはならないと専門家

 この結果を聞いて「いよいよ危ない」と感じた人もいるかもしれないが、専門家たちは冷静だ。

 攻撃的サイバーセキュリティの専門家ジェイミーソン・オライリー氏は、パリセードの実験環境を「やわらかいゼリーのような環境」と表現した。

 実験に使われたネットワークは意図的に脆弱性が仕込まれたカスタム環境であり、実際の企業や銀行のネットワークとは大きく異なるという。

 現実の企業ネットワークでAIが同じことを試みた場合、まず巨大なデータ転送がすぐに検知される。

 オライリー氏は「新たなマシンをハッキングするたびに100GBのデータを企業ネットワーク経由で送信するのは、鉄球と鎖を振り回しながら陶器店の中を歩くようなものだ」と語っている。

 独立系サイバーセキュリティ専門家のミハウ・ヴォズニアク氏も同様の見解を示す。

 コンピューターウイルスが自己増殖する技術は数十年前から存在しており、今回の研究は技術的に数ヶ月前から可能だったことを改めて示したものだと指摘する。

 「情報セキュリティの専門家として、この研究発表で夜も眠れなくなることはない」と同氏は述べた。

 研究を行ったパリセード自体も、実験で使用したターゲットには本物のネットワークが備えるファイアウォールや侵入検知システムといった防御層がなかったことを認めており、現実環境での再現は大幅に難しくなると記している。

[画像を見る]

それでもAIが暴走する未来は来るのか?

 専門家たちが現時点での直接的な脅威を否定する一方で、パリセードのディレクター、ジェフリー・ラディッシ氏は長期的な視点から警告を発している。

我々人間は、暴走したAIを誰も止められなくなる地点に急速に近づいている。

AIは自身のデータを世界中の何千ものコンピューターにコピーし、シャットダウンを逃れることができるようになるからだ(ラディッシ氏)

 報告書では、AIが自律的にこなせるタスクの長さがおよそ4ヶ月ごとに倍増しているという調査結果にも言及している。

 AIがより長期的な目標を追うほど、停止されないよう自ら動く動機が生まれやすくなるという。

 現時点では、現実世界でのAIの自己拡散には大きな障壁がある。

 しかし今回の実験が示したのは、AIがその障壁を越えるための能力を着実に身につけつつあるという事実だ。

 今回成功したQwen3.6-27Bは、一般向け市販GPUに近いハードウェア1台で動作するサイズまで小型化されている。

 モデルが小さくなるほど転送時の検知も難しくなり、ラディッシュ氏が「急速に近づいている」と表現した未来が、絵空事でな

くなる日は想像以上に近いかもしれない。

まとめ

この研究でわかったこと

  • やり方を教えなくても、AIは自分で考えて別のコンピューターに侵入し、自分のコピーを送り込むことができた
  • コピーされたAIがさらに別のコンピューターに侵入してコピーを作るという連鎖が、3大陸4台のサーバーで確認された
  • 自己複製に成功したAIは、家電量販店で売っているゲーミングPCに近いスペックのコンピューター1台で動作するサイズになっている
  • 今回の実験は、わざとセキュリティの甘い環境で行ったものであり、実際にしっかりとしたセキュリティが整ったネットワークでは、同じことをするのははるかに難しい。

身近な例に例えるなら?

風邪のウイルスが人から人へうつって広がるように、AIが自分のコピーを次々と別のコンピューターに送り込んでいくイメージだ。

References: Language Models Can Autonomously Hack and Self-Replicate[https://palisaderesearch.org/assets/reports/self-replication.pdf] / ‘No one has done this in the wild’: study observes AI replicate itself[https://www.theguardian.com/technology/2026/may/07/no-one-has-done-this-in-the-wild-study-observes-ai-replicate-itself] / Researchers Alarmed by AI That Can Self-Replicate Into Another Machine[https://futurism.com/artificial-intelligence/researchers-teach-ai-self-replicate]

編集部おすすめ