生成AI「クロード」の軍事利用をめぐり、開発企業のアンソロピックと米国防総省が対立している。日本工業大学大学院技術経営研究科の田中道昭教授は「今回の対立が示したのは、AI企業がもはや政治や国家安全保障から独立した存在ではないという現実だ。
米国製AIに依存している日本企業もまた、この地政学的変化のただ中に置かれている」という――。
■なぜAI企業は国防総省の要求を拒否したのか
2026年に入ってからの国際政治の動きを見ると、古代ギリシャの歴史家トゥキュディデスが『戦史』の中でアテネとメロスの対話を通して国家の行動原理を冷徹に描いた有名な言葉を想起させられる。
「強者はできることを行い、弱者は耐えねばならない」

The strong do what they can and the weak suffer what they must.
国際政治の世界では、正義は互いの力が対等な場合にのみ意味を持ち、強い国は自らの力の範囲で行動し、弱い国はそれに従わざるを得ない――その厳しい現実を示した言葉である。
この古典的な洞察は、2000年以上を経た現在もなお、国際政治の冷徹な現実を鋭く照らしている。そしていま、この命題が、人工知能という新しい技術をめぐって再び現実の問題として浮かび上がっている。
現在、世界で起きている人工知能をめぐる出来事は、単なるテクノロジー企業同士の競争ではない。国家安全保障、企業の思想、そして人類文明の倫理が正面から衝突する、これまでとは次元の異なる局面に入り始めている。
発端となったのは、米国防総省とAI企業Anthropic(アンソロピック)の対立である。国防総省は同社のAI「Claude(クロード)」を「あらゆる合法的な軍事活動」に利用できるよう求めた。しかし、アンソロピックはこれを拒否した。自律型兵器や大規模監視への転用リスクを排除できない包括的な許可には応じられないという判断だった。
■一企業が「国家安全保障上の脅威」として扱われる
結果は苛烈だった。
米政府は同社を「サプライチェーン上のリスク」に指定し、米軍と取引する企業との商業活動を事実上禁じる措置に踏み切った。AI企業が国家安全保障上の脅威として扱われ、市場から排除されるという、かつて想定されていなかった事態が現実に起きたのである。
一方で競合するOpenAI(オープンAI)は国防総省と合意し、米軍の機密システムでAI技術を運用する枠組みを整えた。人工知能はすでに軍事情報の分析、標的候補の特定、戦闘シミュレーションなどに使われ始めており、戦場の意思決定の中枢に組み込まれる段階に入っていると報じられている。AIが兵器の一部としてではなく、戦争の判断そのものに関わる「頭脳」として機能し始めているという事実は、我々が想像している以上に重い意味を持つ。
さらに、この問題は単なる企業競争にとどまらない。シリコンバレー内部では、人工知能をめぐる思想的対立が表面化している。
アンソロピックの創業者たちは、AIが人類文明に与える長期的リスクを重視する「効果的利他主義(Effective Altruism)」の影響を強く受けており、軍事利用や監視社会への転用を強く警戒してきた。一方で、国家安全保障との協力を重視する企業も増えている。技術の優劣だけでなく、倫理、政治、そして安全保障の立場が企業の運命を分ける時代に入ったのである。
■人工知能は「中立的なテクノロジー」ではない
こうした出来事をつなぎ合わせて見えてくるのは、人工知能がもはや中立的なテクノロジーではないという現実だ。AIは国家の神経系であり、軍事力の計算機であり、社会統治の基盤になりつつある。
だからこそ国家はそれを囲い込み、企業はその圧力のなかで自らの倫理や戦略を選ばざるを得なくなっている。
しかも、この問題はさらに深刻な問いを突きつけている。人工知能が戦争の判断に関与する時代に入れば、誤認識や誤作動が国家間の衝突を引き起こす可能性も現実のリスクになる。AIが自律的に戦争を始める、あるいは核兵器の判断に関与する未来を、完全に否定できる専門家はもはやほとんどいない。
つまり、いま世界で起きているのは「AI企業の対立」ではない。AI文明を誰が、どの原理で統治するのかという問題が、安全保障の最前線で顕在化したのである。
そしてこの構造変化の影響は、決して米国の政治やシリコンバレーの問題にとどまらない。米国製AIに依存している日本企業や日本社会もまた、この巨大な地政学的変化のただ中に置かれている。
私たちはいま、人工知能という技術をどう使うかではなく、人工知能が支配する時代にどう生きるのかという問いに直面しているのである。
■第1章:AIはすでに戦争の「OS」になりつつある
多くの人は、人工知能の軍事利用という言葉を聞くと、無人兵器やロボット兵士の登場を思い浮かべる。しかし、現在世界で起きている変化の本質はそこにはない。いま起きているのは、AIが戦争という行為の周辺にある技術ではなく、戦争そのものの「意思決定構造」に入り込み始めているという事実である。

戦争というものは、表面的には兵器と兵士の衝突に見える。しかしその実態は、膨大な情報を処理し、状況を理解し、適切な判断を下すという高度な意思決定の問題である。敵はどこにいるのか。どの兵力を持っているのか。補給線はどこにあり、どのタイミングでどこを攻撃すれば最も効果的なのか。こうした判断は、これまで人間の指揮官や参謀が膨大な情報をもとに行ってきた。
しかし現代の戦場を取り巻く情報量は、すでに人間の認知能力の限界をはるかに超えている。衛星画像、レーダー情報、通信データ、ドローン映像、センサー情報、公開情報、SNS、物流データ、金融データ。戦場の周囲には膨大なデータが存在しているが、それらを統合して意味のある判断へと変換することは、これまで極めて困難だった。
人工知能は、この制約を根本から変えつつある。AIは膨大な情報を同時に分析し、敵の行動パターンを推定し、攻撃の効果をシミュレーションし、次に取るべき行動の候補を提示する。つまりAIは兵器ではなく、戦争の判断を支える巨大な計算機として機能し始めているのである。

■テクノロジーが実現する「孫子」の原理
ここで思い出すべきなのは、古代中国の兵法書『孫子』の言葉である。
「彼を知り己を知れば、百戦殆(あや)うからず」
戦争の勝敗を決めるのは武器の強さだけではない。情報をいかに集め、いかに分析し、いかに適切な判断を下すかという能力こそが勝敗を分ける。孫子が2000年以上前に語ったこの原理は、人工知能という技術によって、かつてない規模と速度で実現されつつある。
実際、現代の戦場ではすでにAIが広く使われている。AIは衛星画像を解析して軍事施設を特定し、通信データを分析して敵の行動を予測し、戦闘シミュレーションを行って作戦の選択肢を提示する。これらの機能を一つひとつ取り出せば単なる分析ツールのように見えるかもしれない。しかし、それらが統合されたとき、AIは戦争という巨大なシステム全体を動かす基盤、すなわち「OS」の役割を果たすようになる。
OSとは、コンピューターのすべての機能を統合する基盤である。戦争においてAIが果たし始めている役割は、まさにそれに近い。兵器、兵士、補給、情報、外交、経済といった膨大な要素を統合し、戦争という複雑なシステム全体を計算可能な問題として処理する基盤になりつつあるのである。
■戦争の勝敗を決める要素が変わる
この変化の意味は極めて大きい。
なぜなら、戦争の勝敗を決める要素が、兵器の数や兵士の勇気だけではなく、誰がより高度な計算能力を持つかという問題へと移行しつつあるからである。
歴史を振り返れば、戦争の形は技術によって何度も変わってきた。火薬は戦争を変え、鉄道は戦争を変え、航空機は戦争を変え、核兵器は戦争の概念そのものを変えた。そしていま、人工知能がその次の転換点になろうとしている。
しかしAIには、過去の兵器とは決定的に異なる特徴がある。それは、AIが兵器そのものではなく、人間の判断そのものに関与する技術であるという点だ。兵器は人間が使う。しかしAIは、人間がどのような判断を下すかに影響を与える。AIが戦争の意思決定に組み込まれれば、戦争のスピードは劇的に変わる。情報の分析は瞬時に行われ、作戦の選択肢は自動的に生成され、攻撃のタイミングはミリ秒単位で最適化される。
■判断速度が「人間の理解」を超える
ここに、AI時代の戦争の本質的な問題がある。AIが戦争を起こすかどうかという問題ではない。
AIが戦争の判断速度を人間の理解を超えるところまで引き上げる可能性があるという問題である。
金融市場ではすでに同じ現象が起きている。アルゴリズム取引が互いに反応し合い、人間が市場の動きを理解する前に暴落が発生する「フラッシュ・クラッシュ」である。もし同じ構造が軍事システムの中で起きれば、それは単なる市場の混乱では済まない。国家間の衝突が、人間の判断を待たずに加速する可能性がある。
つまり人工知能は、戦争を自動化する兵器というよりも、戦争の速度そのものを変える技術なのである。
そしてその結果として、人類は初めて、戦争という行為の主導権を自らの手から手放す可能性に直面している。人工知能が判断を補助する世界では、最終的に判断を下しているのが人間なのか、それともAIの計算結果なのかという境界線が次第に曖昧になっていく。
だからこそ、いま世界で起きているAIをめぐる対立は、単なる企業競争ではない。それは、戦争という人類の最も危険な行為を、誰が、どの原理で、どこまで制御するのかという文明的な問いなのである。
■第2章:AIが自律的に戦争を始めるリスク
人工知能が戦争に使われるという議論になると、多くの人は映画のような未来を想像する。AIが自律的に意思を持ち、核兵器を発射し、人類に対して攻撃を始める――いわば機械による反乱のような世界である。
しかし現実の危険は、そこから少し違う形で現れる可能性が高い。AIが意図を持って戦争を始めるというよりも、AIが関与する判断の連鎖によって戦争が始まるという形である。
現代の軍事システムは、すでに多くの段階で人工知能を利用し始めている。早期警戒システムによるミサイル探知、衛星画像やレーダー情報の解析、通信データの分析、標的候補の抽出、戦闘シミュレーション、無人機群の制御。これらは個別に見れば単なる効率化の技術に見えるかもしれない。しかし、それらが一つのシステムとして統合されたとき、戦争という行為の意思決定構造は根本から変化する。
ここで問題になるのは、判断の速度である。AIは人間とは比較にならない速度で情報を処理する。衛星からの画像データ、レーダー情報、通信傍受、センサー信号、SNSの断片。これらがAIによって統合されると、戦場の状況認識はほぼリアルタイムで更新される。作戦シミュレーションも瞬時に行われ、次に取るべき行動が提案される。
■核戦争を回避したのは「人間の判断」だった
その結果、戦争の判断は急速に加速する。
最も現実的なリスクは、誤認識によって戦争が始まる可能性である。歴史を振り返れば、核戦争の瀬戸際は何度も存在した。冷戦期には、ミサイル警報システムが誤作動し、核攻撃と誤認された事例が複数ある。そのとき最終的に核戦争を回避したのは、人間の疑念や直感だった。警報が鳴っていても、それが本当に攻撃なのかどうかを疑う余地が人間にはあった。
その象徴的な事件が、1983年に起きたソ連の核警報事件である。当時、ソ連の早期警戒システムは米国からの核ミサイル発射を検知したと報告した。警報は司令部に届き、システムは米国による先制攻撃の可能性を示していた。もしその判断がそのまま受け入れられていれば、ソ連は核報復に踏み切っていた可能性がある。
しかし、そのとき当直士官だったスタニスラフ・ペトロフは警報を疑った。システムは誤作動かもしれないと判断し、報告を保留した。結果として、この警報は人工衛星の誤認識による誤作動だったことが後に判明する。冷戦史研究者の多くは、この事件を核戦争に最も近づいた瞬間の一つと指摘している。
重要なのは、最終的に核戦争を回避したのが人間の判断だったという点である。警報システムは攻撃を検知したと判断していたが、人間はそれを無条件に信じなかった。
■AIが早期警戒システムに組み込まれたら…
しかしAIが早期警戒システムの中枢に組み込まれるようになれば、この構造は変わる可能性がある。AIは膨大なデータを高速で処理することに優れているが、統計的パターンから結論を導くという特性を持つ。もしAIがミサイル発射の兆候を検知したと判断すれば、その結論は人間よりもはるかに速く提示される。そしてその判断が自動化された防衛システムや報復システムに接続されていれば、誤認識が連鎖的な軍事行動を引き起こす可能性がある。
この問題はすでに現実の戦場でも議論され始めている。例えばイスラエル軍がガザで使用したと報じられているAIターゲティングシステム「Lavender」である。報道によれば、このシステムは通信データや行動パターンを分析し、武装組織の関係者とみられる人物を自動的に抽出するために用いられた。AIが提示した候補リストをもとに、人間のオペレーターが攻撃判断を行う仕組みだったとされる。
ここで重要なのは、AIが直接攻撃を決定したかどうかではない。問題は、AIが提示する候補リストの規模と速度である。数万人規模のデータからAIが瞬時にターゲット候補を抽出すれば、人間が一件一件を精査することは現実的に不可能になる。結果として、人間の判断はAIの提案を確認するだけのプロセスに近づいていく。
■「境界線」を引くのは人間の責任である
こうした変化は軍事思想にも表れている。米軍では近年、「Algorithmic Warfare」や「Joint All-Domain Command and Control(JADC2)」と呼ばれる構想が議論されている。これは陸海空宇宙サイバーのすべての戦場情報をAIで統合し、意思決定の速度を飛躍的に高めるという軍事構想である。
AIが戦場のデータを統合し、最適な行動を提示する。指揮官はそれをもとに瞬時に判断を下す。戦争は、人間の思考速度ではなく、アルゴリズムの処理速度に近づいていく。
このとき最も恐ろしいのは、AI同士の判断が互いに反応し合う構造である。もし複数の国家が同様のシステムを導入すれば、誤認識や誤警報が瞬時に連鎖し、衝突が急速にエスカレートする可能性がある。
安全保障研究者の間では、こうした事態を「フラッシュ・ウォー」と呼ぶこともある。偶発的な誤認識が、AIによる高速な判断連鎖によって拡大し、全面的な軍事衝突へと発展する可能性である。
AIが戦争を始める未来を完全に排除することは難しいかもしれない。しかし、AIがどこまで戦争の判断に関与するのかという境界線を引くことは、依然として人間の責任の範囲にある。
そしてまさにその境界線をめぐって、いま世界で激しい対立が起きているのである。
■第3章:「AI文明の統治原理」をめぐる衝突
オープンAIとアンソロピックの対立は、単なる企業同士の競争ではない。それは、人工知能という新しい文明技術を、どの原理で統治するのかという根源的な問いの衝突である。
アンソロピックの創業者たちは、いわゆる「効果的利他主義(Effective Altruism)」の思想に強い影響を受けている。この思想は、科学的合理性を用いて人類全体の幸福を最大化しようとする哲学であり、とりわけ人工知能がもたらす長期的な文明リスクに強い関心を持っている。
AIが制御不能な形で進化すれば、人類社会そのものが深刻な危機に直面する可能性がある。だからこそ、AIの開発と利用には明確な倫理的境界線を設けるべきだというのが彼らの基本的な立場である。
今回、アンソロピックが米国防総省の要求を拒否した背景にも、この思想がある。国防総省は、同社のAIを「あらゆる合法的な軍事活動」に利用できるよう求めた。しかしアンソロピックは、こうした包括的な許可が自律型兵器や大規模監視への転用につながる可能性を排除できないとして拒否した。
AIという汎用技術は、一度包括的な利用許可が与えられれば、用途が際限なく拡張していく性質を持つ。だからこそ、彼らはその境界線を曖昧にすることを避けようとしたのである。
しかし国家の論理はまったく異なる。国家にとって最優先されるのは倫理ではなく安全保障である。人工知能が軍事力を左右する時代において、その利用を拒否する技術は国家にとって弱点になり得る。もし一つの企業が軍事利用を拒否しても、別の企業が同じ技術を提供すれば問題は解決してしまう。実際、アンソロピックが拒否した直後にオープンAIが国防総省と合意したことは、この構造を象徴している。
■エンジニアからの評価を高めた「一線」
なお、米紙ニューヨーク・タイムズのポッドキャストである「The Daily」では、3月9日付で「アンソロピック対ペンタゴン」とのタイトルで、今回の件を詳細に取り上げている。筆者が注目したのは、以下のような内容部分だった。
今回の対立によって、アンソロピックは政府との契約を失う可能性がある。しかしその一方で、同社の評判はむしろ高まった。特にAIエンジニアたちの間での評価が非常に上がったのである。
なぜなら、アンソロピックは「AIをどのように戦争で使うべきか」という問題について、明確な一線(レッドライン)を引こうとしたからだ。
シリコンバレーでは、このような姿勢は非常に強い支持を集めた。AIエンジニアの多くは、自分たちが作る技術が軍事目的でどのように使われるのかを強く気にしているからである。
その結果、アンソロピックは政府との契約を失うリスクを負ったが、AIコミュニティの中では「原則を守った会社」として評価が高まった。
一方でオープンAIは、政府との契約に前向きな姿勢を示した。そのためビジネス面では有利な立場に立ったが、AIコミュニティの一部からは「政府寄りの企業」と見られるようになった。

■テック企業が直面する深刻なジレンマ
ここで浮かび上がるのは、AI時代の新しい権力構造である。かつて兵器産業では国家が主導権を握り、企業はその供給者であった。しかしAIの時代では、最先端の技術と人材を握る民間企業が戦争の在り方そのものに影響力を持ち始めている。
AI企業が政府と距離を取るか、それとも国家安全保障に積極的に関与するかという選択は、単なる企業戦略を超え、AI時代の戦争倫理と国家戦略の在り方を問う問題となりつつあると筆者は考える。
ここに、技術企業が直面する深刻なジレンマがある。倫理を優先すれば国家との関係が断たれる可能性があり、国家と協力すれば倫理的批判を受ける。アンソロピックは前者を選び、オープンAIは後者を選んだ。しかし、どちらが正しいかという単純な問題ではない。むしろ重要なのは、人工知能という技術が、もはや企業だけでコントロールできる領域を超えているという事実である。
■AIとこれまでの技術の「決定的な違い」
歴史を振り返れば、強力な技術は必ず国家と結びついてきた。核兵器、宇宙開発、インターネット、GPS。いずれも最初は研究者や企業の技術だったが、最終的には国家安全保障の枠組みに組み込まれていった。人工知能もまた、その例外ではない可能性が高い。
しかしAIには、これまでの技術とは決定的に異なる特徴がある。核兵器は物理的な兵器であり、その管理は比較的明確だった。だがAIは、兵器だけでなく、情報、金融、物流、行政、監視、そして戦争の意思決定そのものに関与する。つまりAIは、単一の兵器ではなく、社会全体の運用システムに組み込まれる技術なのである。
この意味で、オープンAIとアンソロピックの対立は、AI企業の戦略の違いを超えている。それは、AIを国家の中枢インフラとして組み込むのか、それとも強い倫理的制約のもとで制御するのかという、文明の方向性をめぐる対立である。
国家、企業、そして倫理。この三つの力がいま、人工知能という巨大な技術をめぐってせめぎ合っている。
■国家・企業・倫理がせめぎ合っている
国家は安全保障のためにAIを必要とし、企業は技術と市場の拡大を追求し、倫理は人類社会の長期的な安全を守ろうとする。どれか一つだけが正しいという問題ではない。むしろ問題は、この三つの力のバランスをどのように取るかという点にある。
もし国家だけがAIを支配すれば、監視国家のリスクが高まる。

もし企業だけがAIを支配すれば、巨大テック企業の権力が社会を左右する。

もし倫理だけを優先すれば、国家安全保障の現実に対応できなくなる可能性がある。
つまり、いま問われているのはAI企業の戦略ではない。AI文明をどのような統治原理のもとで運営するのかという問題なのである。
そしてこの問題は、米国だけの問題ではない。人工知能が社会の基盤技術になれば、その統治原理は世界全体の秩序に影響を及ぼす。オープンAIとアンソロピックの対立は、その未来をめぐる最初の大きな衝突にすぎない。
この対立の行方は、単に一つの企業の運命を決めるだけではない。それは、AI文明がどのような形で展開していくのかという未来そのものを左右するのである。
■第4章:AI覇権戦争の時代、日本企業は何を選ぶのか
オープンAIとアンソロピックの対立を、遠いシリコンバレーの出来事として眺めている日本企業は少なくない。しかし、その見方は危うい。むしろ今回の出来事が最も大きな影響を及ぼす可能性があるのは、米国のAIを日常的に利用している日本企業である。
日本企業の多くは、AIを業務効率化のツールとして導入してきた。顧客対応の自動化、ソフトウェア開発の支援、文書作成の効率化、マーケティング分析、データ整理。こうした用途は確かに有効であり、AIが企業の生産性を高めていることも事実である。
しかし、ここで一つの根本的な問いを考えなければならない。それは、そのAIがどの政治空間に属しているのかという問題である。
今回の一連の出来事が示したのは、AI企業がもはや政治や国家安全保障から独立した存在ではないという現実である。米国政府はAI企業を安全保障の観点から評価し、必要であれば市場から排除することすらためらわない。一方で、国家の方針に協力する企業には巨大な政府契約が与えられる。この構造の中でAI企業の運命が決まるのであれば、日本企業が利用するAIもまた、米国の政治環境や安全保障政策の影響を受けることになる。
これは単なる技術リスクではない。地政学リスクである。
■AI依存による「地政学リスク」
もし日本企業の基幹業務が特定のAIモデルやクラウド環境に依存していた場合、そのAIが政治的理由によって制限されたり、供給停止されたりする可能性を完全に否定することはできない。AIモデルが安全保障上の理由で輸出制限の対象になる、あるいは特定の用途が禁止されるといった事態が起きれば、日本企業の業務そのものが影響を受ける可能性がある。
さらに重要なのは、AIが単なるツールではなく、企業の意思決定の中枢に入りつつあるという点である。営業戦略、製品開発、サプライチェーン管理、投資判断。これらの判断をAIが補助するようになれば、企業の知的活動の一部が外部のAIシステムに依存することになる。そのAIがどの国の制度に属し、どの政治的影響を受けるのかという問題は、企業の独立性そのものに関わる。
この問題は、日本の産業構造とも深く関係している。日本の強みは、製造業を中心とする現場力である。工場、物流、インフラ、医療、建設。こうした分野では、現場のデータと経験が競争力の源泉になっている。しかしそのデータがすべて外部のクラウドAIに集約されるようになれば、日本企業の強みは外部のプラットフォームに吸収されてしまう可能性がある。
だからこそ、日本企業がこれから考えなければならないのは、単にAIを導入することではない。どのような形でAIを導入するのかである。
■日本の経営者が考えるべき「2つの問い」
重要なのは、デジタル主権という考え方である。これは、重要なデータやAIシステムをどこまで外部に依存するのかという問題であり、欧州でも近年強く議論されている。すべてのAIを自国で開発する必要はないが、少なくとも産業の中枢や国家インフラに関わる部分については、自律性を確保する必要がある。
ここで、日本の経営者が今すぐ考えるべき実践的な問いがある。
第一に、現在自社で利用しているAIツールが突然停止した場合、どの業務が止まるのかを把握しているかという問いである。これは単なるITの問題ではなく、経営のリスク管理の問題である。米国製AIモデルが政治的・安全保障的理由によって制限される可能性を想定し、業務インパクトを監査する必要がある。
第二に、自社の最も重要なデータがどこに保存され、どのAIによって処理されているのかを把握しているかという問いである。特に製造現場の設計データ、品質データ、設備データなどの機密情報は、無条件に外部クラウドに送るべきものではない。これらのデータについては、エッジAIを活用し、外部クラウドから切り離されたクローズドな環境で処理する仕組みを構築する必要がある。
つまり、AIを導入することそのものよりも重要なのは、AI依存の構造を設計することなのである。
■「便利だから使う」だけでは生き残れない
日本はこれまで、技術を主に「経済」の問題として扱ってきた。しかしAIは、経済だけでなく、安全保障や政治と密接に結びつく技術である。AIの時代において、企業のIT戦略はそのまま国家の安全保障環境とも関係してくる。
オープンAIとアンソロピックの対立が示しているのは、AIが単なる民間技術ではなく、国家、企業、倫理が交差する巨大な力学の中に置かれているという現実である。その世界で日本企業が生き残るためには、「便利だから使う」という発想だけでは不十分である。
AIを導入するかどうかではなく、AIとどのような関係を結ぶのか。
その問いに対する戦略的な答えを、日本企業は今こそ持たなければならない。
そして、もう一つ強調しておきたい。人工知能をめぐる現在の議論は、しばしば技術の進歩の問題として語られる。しかし本質はそこではない。人工知能は、社会の基盤を支える新しいインフラである。だからこそ、その運用をどのような原理で統治するのかという問題は、技術者だけでなく、企業経営者、政策担当者、そして社会全体が向き合うべき課題なのである。
人工知能の時代とは、単に新しい技術が登場する時代ではない。
人類が「知能」という力を、どの原理で統治するのかを問われる時代なのである。
■人類は「新しい力」をコントロールできるか
本稿の冒頭で引用した「強者はできることを行い、弱者は耐えねばならない」というトゥキュディデスが描いたメロス対話でのメッセージは、力の論理の冷酷さを示すだけの話ではない。そこにはもう一つ重要な教訓がある。
アテネは圧倒的な力を背景に合理的な判断をしているつもりだった。しかし歴史は、そのアテネがやがて戦争の中で衰退していく姿を描いている。力を持つことと、その力を正しく使うことは、決して同じではないのである。
人工知能をめぐる現在の対立も、同じ問いを私たちに突きつけている。国家は安全保障のためにAIを必要とし、企業は技術の発展を追求し、倫理は人類社会の安全を守ろうとする。その三つの力の間で、いま世界は揺れている。
しかし、一つだけ確かなことがある。AIはすでに単なる便利な技術ではない。それは戦争、政治、経済、社会のすべてに関わる新しい力になりつつある。
だからこそ、いま問われているのは「どのAIが優れているのか」という問題ではない。
人類は、この新しい力を本当にコントロールできるのか。
もしそれができなければ、未来の歴史家はこう書くかもしれない。
人類は、初めて自ら生み出した「知能」という力を手に入れたが、その力を統治する準備ができていなかった、と。

----------

田中 道昭(たなか・みちあき)

日本工業大学大学院技術経営研究科教授、戦略コンサルタント

専門は企業・産業・技術・金融・経済・国際関係等の戦略分析。日米欧の金融機関にも長年勤務。主な著作に『GAFA×BATH』『2025年のデジタル資本主義』など。シカゴ大学MBA。テレビ東京WBSコメンテーター。テレビ朝日ワイドスクランブル月曜レギュラーコメンテーター。公正取引委員会独禁法懇話会メンバーなども兼務している。

----------

(日本工業大学大学院技術経営研究科教授、戦略コンサルタント 田中 道昭)
編集部おすすめ