お菓子を食べて友人とおしゃべりしてた10代の少年が、20分後に警官に銃を突きつけられ手錠をかけられる恐ろしい事件が起きた。
アメリカで放課後の高校に武装警官が突入。
とっさに「死ぬかもしれない」と感じたアレン君。だが、そこにあったのは空っぽのお菓子の袋だけだ。
安全どころか恐怖をもたらすAI銃探知システムが波紋を呼んでいる。
AI銃検知システムに疑いをかけられた高校生
事件は2025年10月20日午後7時ごろ、メリーランド州ボルチモア郡のケンウッド・ハイスクールで起きた。
放課後のサッカー練習後を終え、友人と迎えを待ちながらスナック菓子のドリトスを食べていたタキ・アレン君は、空いた袋を丸めてポケットに入れた。
すると直後、彼の身に恐ろしい災難が降りかかることとなる。
その瞬間、同校のAI銃検知システムが、アレン君が「銃を所持している可能性あり」と誤検知。アラートが即座に学校安全部門を経由し、警察へと伝えられた。
20分後に武装警官に銃を向けられ手錠をかけられる
午後7時20分、校外にパトカー8台が到着。武装した警官たちが銃を構え、さっきまで友だちと話していたアレン君に歩み寄る。
いきなり「地面に伏せろ!」って言われて。マジで何が起きてるのかわからなかった (タキ・アレン君)
彼はその場でひざまずかされ、両手を背後に回され、手錠をかけられた。 「その瞬間、本当に『やばい、殺されるかも』って思った」
「銃に見えるだろ」「チップスだよ」事件後もトラウマに
身体検査の結果、当然ながら銃など見つからず、現場にはアレン君が食べていたドリトスの袋が残った。
警官が見せた写真には、袋を両手で持ち、人差し指を伸ばした姿が映っていた。
警官に写真を見せられて「これ銃に見えるだろ」って言われた。けど、僕は「いや、ただのチップスだよ」って答えた
内心不安でしょうがなかったし、学校が守ってくれるなんてとても思えなかった。終わった後も、声をかけてくる人なんていなかった。校長含めてね
ある日いきなりだしぬけに突入してきた武装警官と彼らが構える銃口に囲まれて、死にそうな思いをしたアレン君。
事件を振り返りながら彼は沈んだ声でこう語る。
もう外に出たくない。チップス食べたり飲み物持ったりしたら、また警官が来るんじゃないか、って思うんだ
家族の怒りと高校・警察の対応
アラン君の祖父、 ラモント・デイビスさんは「16歳の子どもに銃を突きつける必要なんてなかった!」と怒りをあらわにする。
高校側は翌日、保護者に向けて「安全確保が最優先」とする説明文を送付し、関係した生徒に対するカウンセリングを案内。
教育長が「非常に不幸な出来事」と述べる一方、警察からの公式謝罪はなく、代わりにこんな声明を出した。
当時の情報に基づき適切に対応した。脅威はなかったと確認したのち、安全に解決した
誤検知によるAIの限界や人種バイアスの懸念
問題のシステムはバージニア州の新興企業、オムニラート社が開発した銃検知AIだ。
仕組みは監視カメラの映像を解析し、銃の可能性がある物体を検出すると即座に警報を発するというもの。
しかし今回のような誤検知(False Positive)は、人命を守るどころか無実の人間を危険にさらす。
加えて、監視カメラによる常時モニタリングはプライバシー問題を引き起こし、AIの判断が人種バイアスを助長する懸念も指摘されている。
標的となったのが黒人のアレン君だったことで、地域メディアも敏感に反応している。
「警察を訴えろ!」「この先が怖い」の声
「ただチップスを食べてただけ。なのに銃を向けられて、手錠までかけられた。こんなの誰にも起きてほしくない」と話すアレン君。
何もしてない高校生が、突如として学校の監視システムから「銃の所持者」という濡れ衣を着せられ、無実のまま死を覚悟するまで警察に追い詰められた今回の事件。
地域メディアやXなどのSNSでも「この袋が銃に見える?」と拡散されている[https://x.com/FOXBaltimore/status/1981070097079849006]。
報道を視聴したユーザーからは、アラン君を気の毒に思い、AIの判断をうのみにした警察やシステムを導入した同校への非難や訴訟を勧める声が相次いた。
また、AIシステムの信頼性への疑問や人種差別の見解などが巻き起こり、社会的にもさまざまな波紋が広がっている。
- 彼は一歩間違えば(警察の正当防衛みたいな名目で)殺されたり殴られたかもしれないんだぞ。警察を訴えるべき!
- 「警察が身の危険と判断した」ってやつを考えたらゾッとする
- 「プロセスは意図通りだった」だと!?無実の子どもを恐がらせることが?ふざけんな!
- AI銃検知システムが人間の判断の補完目的で設計されたのなら、なぜ人間のオペレーターがカメラ映像を確認しなかったのか?
- 彼はお菓子の袋をポイ捨てしないように持っていた。なのに殺されかけるという恐怖
- ソフトウェアエンジニアだがこのようなツールは非常に危険だ。
信頼性を確保するにはデータが不十分。同じアルゴリズムが月を飛行機と誤認したり、車を犬と誤認したりするのを見たことがある。意思決定にまったく適していない- 高価なAIモデルだろうと、意思決定の前には厳密な評価が要る。単なる数学に基づく推測なだけで、知性など一切関係ないんだ
- AI開発者は間もなく多額の訴訟賠償金を支払うことになる
- 彼が身体的に無事だったのは良かった。もしそのAIが武装ロボットに搭載されていたら…AIは大きな問題になるだろう
- 人間を学習したAIが人種差別的なのもうなずける
- 学校は彼に謝罪する義務がある
- AIは人類にとって必ず無視できない重大な問題になるだろう。今すぐにでも大規模な訴訟を起こし、この問題を制御できるよう働きかけるべき
- これがエスカレートしたらどうなる?未来を想像してみてよ
- コンピューターの指示に従っただけ、なんて言い訳は通用しないだろ!
迅速なAI銃検知システムの誤報が命を脅かす
確かにアメリカでは学校内での銃乱射事件が社会問題となっている。
同校が安全のために採用したAI銃検知システムは、人間よりも「迅速な対応」が可能だが、その一方で、皮肉にも誤報が命を脅かす、という現実を突きつけることとなった。
どれほど便利で先進的なシステムだろうと誤検知ゼロなどまずありえない。
特に命に関わる銃器を検出する目的ならなおさら、その精度を把握し、状況に応じたプロトコールを作っておく必要があったのではないだろうか?
人間の代わりにAIを使うシステムは増加の一途をたどっているが、今後は扱う人間側の慎重さや配慮がより問われる時代になりそうだ。
References: Foxbaltimore[https://www.wbaltv.com/article/student-handcuffed-ai-system-mistook-bag-chips-weapon/69114601%20https://foxbaltimore.com/news/local/teen-detained-after-ai-system-mistakes-chips-for-weapon-outside-kenwood-high-school] / Futurism[https://futurism.com/future-society/ai-doritos-bag-gun-cops-teenager]











