自律型追跡ドローンをだまし、接近させて墜落させる方法を米カリフォルニア大学アーバイン校の研究チームが開発した。
特殊な模様を描いた傘を使うと、ドローンの画像認識AIが「対象が遠ざかっている」と誤認識する。
距離を保とうとするドローンは逆に傘の持ち主へ近づき続け、最終的には捕獲や衝突によって無力化できる。
研究チームは市販ドローン3機種で実験を行い、この仕組みが実際に機能することを確認した。
参考文献:
UC Irvine researchers expose critical security vulnerability in autonomous drones
https://news.uci.edu/2026/02/25/uc-irvine-researchers-expose-critical-security-vulnerability-in-autonomous-drones/[https://news.uci.edu/2026/02/25/uc-irvine-researchers-expose-critical-security-vulnerability-in-autonomous-drones/]
自律追跡ドローンのAI追跡機能とは何か
近年のドローンには、AIが人物や車など特定の対象を自動で追い続ける「自律型追跡機能」が搭載されている。
利用者が画面上で対象を指定すると、ドローンはカメラの映像を解析し、対象との距離を保ちながら自動で飛行する仕組みだ。
スポーツ撮影やアウトドア撮影では、操縦者が操作しなくても人物を追い続ける便利な機能として広く使われている。
一方で、この技術は監視や警備などにも応用されている。国境警備や治安維持の現場では、ドローンが人物や車両を自動で追跡することで広い範囲を効率よく監視できる。
しかし同時に、ストーカー行為など悪意ある目的で使われる危険性も指摘されている。
こうした背景から、AIによる自動追跡技術の安全性を検証する研究が重要になっている。
特殊模様の傘でAIの画像認識を欺く仕組み
米カリフォルニア大学アーバイン校の研究チームは、ドローンの追跡機能がカメラ映像をもとに対象との距離を判断している点に注目した。
自律追跡ドローンは、対象の見え方の変化から「対象が近づいているか、遠ざかっているか」を推定している。
そこで研究チームは、AIの視覚認識を錯覚させる模様を作り出すことで、ドローンの判断を誤らせる方法を考案した。
研究チームが開発したのは、特殊な幾何学模様を印刷した傘である。
この模様は、ドローンのAIにとって「対象が遠ざかっているように見える」視覚パターンを生み出す。
しかし実際には人物はその場に立ったままである。追跡距離を保とうとするドローンは、対象が遠ざかっていると誤認識し、距離を縮めるために前進する。
結果として、ドローンは傘を持つ人物へ自ら近づいてしまう。
このようにしてドローンを意図的に引き寄せる攻撃方法を、研究チームは「FlyTrap(フライトラップ)」と名付けた。
ドローンを捕獲・墜落させることが可能に
FlyTrapの特徴は、追跡機能を停止させるのではなく、ドローンを攻撃者の方向へ引き寄せる点にある。
ドローンが十分に近づいた場合、網を発射する装置「ネットガン」などで機体を捕獲できる。また、障害物に衝突させて墜落させることも可能になる。
この方法はハッキングや無線通信を必要としない。傘を開くだけで機能するため、外部信号やデータ通信に依存しないという特徴がある。
また、さまざまな天候や照明条件でも作動することが確認されている。
市販ドローン3機種で実験に成功
研究チームは、この攻撃方法を実際の市販ドローンで検証した。実験に使用された機体は次の3機種である。
- DJI Mini 4 Pro
- DJI Neo
- HoverAir X1
これらはいずれも人物追跡機能を搭載したドローンである。
実験では、特殊模様の傘を使うことでドローンを徐々に接近させることができ、捕獲可能な距離まで引き寄せたり、衝突によって墜落させたりできることが確認された。
研究チームは、この脆弱性についてドローンメーカーのDJIとHoverAirへ報告している。
監視ドローン時代の新たなセキュリティ問題
今回の研究は、自律型追跡ドローンが抱えるセキュリティ上の弱点を示している。
将来的にドローンは、国境警備や警察の監視活動、重要施設の警備などで広く利用される可能性がある。
しかし視覚認識AIが単純な視覚パターンで欺かれるのであれば、監視システムとして重大な弱点になる。
研究チームは、自律追跡システムが重要インフラに広く導入される前に、安全性の改善が必要だと指摘している。
一方でこの技術は、ドローンによるストーカー被害などに対して、追跡ドローンを無力化する手段として役立つ可能性もある。
AIは急速に進化している。それでも今回の研究は、AIの視覚認識が単純な視覚パターンによって欺かれる可能性を示した。
人間の目が錯視にだまされるように、人間が作ったAIの画像認識もまた視覚のトリックに弱いのだ。
References: News.uci.edu[https://news.uci.edu/2026/02/25/uc-irvine-researchers-expose-critical-security-vulnerability-in-autonomous-drones/]











