2026年1月26日、仏国際放送局RFI(ラジオ・フランス・アンテルナショナル)の中国語版サイトは、人工知能(AI)の進化によりテロ組織が生物・核兵器などの致死的技術を容易に入手可能になる恐れがあるとして、米中の専門家が警告を発したと報じた。

記事は、AIが産業や医療に多大な恩恵をもたらす一方で、テロリストによる化学・生物・放射性物質・核のいわゆる「CBRN兵器」の使用リスクを劇的に増幅させる可能性があると指摘。

全く異なる背景を持つ米中の専門家グループが昨年それぞれ導き出した結論でそのリスクが示されたことを伝えている。

そして、中国側の見解として、昨年秋に発表された「AI安全ガバナンス枠組み2.0」の内容に言及。この文書では、AIシステムの重要な段階における人的監督の実施と、人間が最終決定権を保持することの重要性が強調されており、データ管理が不十分な場合には過激派組織が兵器の設計や製造、合成、使用に至る能力を容易に獲得してしまう懸念を指摘したと紹介した。

また、同文書がAIに犯罪の手口を学ばせる「犯罪用AI」としての悪用や、ソーシャルボットを通じた「認知戦」への利用についても警鐘を鳴らしたことに言及。中国当局はAIが監視のない状態で暴走するのを防ぐため、極端な状況下での「サーキットブレーカーメカニズム」の導入と協調的な対応を呼びかけていると報告したことを伝えた。

一方、米国側の専門家からも同様の危機感が共有されており、米国のNGO「核脅威イニシアティブ」の提唱によりミュンヘン安全保障会議で行われたシミュレーション演習では、テロリストがAIを用いて新型の腸内ウイルスを人工的に生成し、感染者8億5000万人、死者6000万人という世界的なパンデミックを引き起こす悪夢のようなシナリオが検討されたことを紹介。AI導入における最大の潜在的リスクがバイオセキュリティ(生物学的安全性)分野にあることが浮き彫りになったと伝えた。

記事は、AIが知識習得のハードルを下げたことで、多くの人が病原体の製造・保管に必要な知識を得られるようになり、既存のウイルスを「復活」させたり、ワクチンや薬剤が効かない致死性の高い病原体を予測・開発したりする可能性が増大していると指摘。オンラインでのDNAサンプル注文をめぐり、既存の不正流通防止メカニズムをAIが回避する手助けをする具体的なリスクについても触れた。

そして最後に、聖戦主義組織などのテロ集団が新技術をプロパガンダに活用する高い適応能力をすでに示しており、自らの能力を拡張する機会があればAIをちゅうちょなく実行に移すだろうと警告。これらのリスクに対処するためのセーフガード構築はすでに時間との戦いになっており、より効果的な管理手段の確立が急務であると伝えた。(編集・翻訳/川尻)

編集部おすすめ