1991年の湾岸戦争は「テレビゲームのような」と言われた。ハイテク兵器が次々目標を破壊する映像が衛星中継され、多くの命が失われる戦争の実態を曖昧にさせた。

 35年後の現在は人工知能(AI)が兵士や軍を動かすSF映画のような戦いになっている。
 米国とイスラエルによるイラン攻撃には初めて本格的にAIが用いられ、「第1次AI戦争」とも呼ばれる。米ジョージタウン大学の調査では、AIにより2千人必要な作業を20人でできるようになり、24時間で千以上の目標を攻撃したと伝えられた。
 解析し目標を決めるだけでなく、人間の判断に基づかないで自ら目標を攻撃する「自律型致死兵器システム(LAWS)」も既に実戦投入されているという。超えてはならない一線を越えている。
 AIはまだ発展途上の技術であり、暴走の不安が付きまとう。軍事利用への歯止めが必要だ。
 事実に基づかない情報を出力する「ハルシネーション(幻覚)」や、与えられた情報を強引につじつま合わせする「コンファビュレーション(作話)」などの問題もある。
 だからこそ人間が適切に関与しAIが暴走しないよう軍事利用に歯止めをかけなければならない。
 湾岸戦争以上に戦争の実像が曖昧になれば人としての倫理観も失いかねない。LAWSが標的を誤った場合、誰がどうやって責任を取るのか。
■    ■
 米軍が対イラン攻撃に使用したAIを作った新興企業アンソロピック社は、こうした現状を危惧したのだろう、米政府に自社AIの使用制限を申し入れた。
LAWSや国民監視に使われたくないという訴えだ。
 これに対しトランプ米大統領は激しく反応し、同社製品を全ての米政府機関から排除するよう命じた。
 今回の件でAIの軍事利用がさらに広がり、軍拡競争が何ら制限のないまま拡大していくことが懸念される。
 開発側の思いは理解できる。自分たちの技術を使って生まれた兵器が自動で動き無辜(むこ)の人々が殺害されたり、個人データから多くの人のプライバシーが丸裸にされたりするのは耐えがたいはずだ。
 軍事に技術を使わせずAIの軍事利用を拒むという技術者の役割も問われている。
■    ■
 国連安全保障理事会や特定通常兵器使用禁止制限条約(CCW)などの枠組みで取り組む動きはある。だが既にAI兵器を実用化している米国などは後ろ向きとされ、協議は前進していない。
 複数のAIを使った英国の戦争シミュレーション研究では95%のシナリオで戦術核兵器の使用が行われ、全てのシナリオで撤退や譲歩が選ばれることはなかったという。
 AIに依存した現代兵器が過激な行動に出ないという保証はない。各国が協調し国際的なルール作りを急がなければならない。
編集部おすすめ