同盟国か、敵国か——米国防総省がAnthropicを「供給網リスク」に指定
米国防総省がAIスタートアップAnthropicを供給網リスクに指定し、2億ドルの契約を停止。AIの安全性を重視してきた同社が、なぜ外国の敵対勢力と同等の扱いを受けることになったのか。その背景と日本への示唆を読み解く。
「これほど必要不可欠なら国防生産法を発動してでも確保すべきだ、と言っておきながら、同時に外国の敵対勢力にしか使わないラベルを貼る。その二つが現実として両立するとは、私には思えない」——退役海軍少将のマーク・ダルトン氏は、首を傾げながらそう語った。
2億ドルの契約から「敵国扱い」へ
2025年7月、米国防総省(DoD)はAIスタートアップAnthropicに対して2億ドル規模の契約を締結した。同社のAIモデル「Claude」は、機密ネットワークに初めて展開された民間AIとして、軍や連邦機関から高い評価を受けていた。ステップバイステップで推論を示す透明性の高い回答方式は、政府機関が求める監査・検証の要件に合致しており、現場の担当者からも「最も信頼性が高く、計画立案に組み込みやすい」と支持されていた。
ところが、それからわずか数カ月後の2026年初頭、状況は一変する。国防総省のAIポートフォリオを統括することになった技術責任者のエミール・マイケル氏が「まずは契約書を見せてほしい」と要求したことが、見直しの端緒となった。その後の数カ月にわたる審査の末、国防総省はAnthropicの技術を全面的に使用禁止とし、同社を「供給網リスク」に指定する異例の措置を取った。この指定は歴史的に、中国やロシアなど外国の敵対勢力に対してのみ適用されてきたものだ。
国防省はさらに、すべての防衛関連ベンダーと請負業者に対し、国防総省との業務においてAnthropicのモデルを使用していないことを証明するよう求めた。Anthropicは2026年3月、この措置を「前例のない違法行為」と訴え、連邦裁判所に提訴した。
なぜAnthropicは軍に食い込めたのか
Anthropicは2021年、OpenAIからの集団離脱によって生まれた。創業者のダリオ・アモデイCEOと妹のダニエラ・アモデイらは、AIの安全性に対する姿勢の違いを理由にOpenAIを去り、サンフランシスコに新会社を設立した。「安全性最優先」を掲げた同社は、企業顧客向けの使いやすさと、政府機関が求める説明可能性を武器に、ワシントンD.C.での人脈を着実に築いていった。
軍への浸透を加速させた鍵は、二つのパートナーシップだった。一つはAmazon Web Services(AWS)との連携だ。ClaudeはAWSの「Bedrock」サービスを通じて提供されており、政府が承認したクラウド環境の中で連邦機関が試験導入を始めることができた。Amazonは2023年以降、Anthropicに合計80億ドルを投資している。もう一つは防衛テクノロジー企業Palantirとの連携で、これにより国防総省の既存システムへの統合が容易になった。
こうしてAnthropicは、ChatGPTが消費者市場を席巻する中、エンタープライズ・政府向け市場で独自のポジションを確立していった。現在の企業評価額は3800億ドルに達している。
「同盟国」を失った軍の現場
今回の決定が現場にどれほどの影響を与えているかは、退役軍人たちの声が物語っている。元海軍情報将校でイラク派遣経験もあるブラッド・カーソン氏(現在はAI政策非営利団体「Americans for Responsible Innovation」の共同創設者)は、「現役・退役を問わず多くの将校から話を聞いたが、現場の戦闘員たちは怒っている」と語る。Claudeは単なるツールではなく、作戦立案の中核に組み込まれた存在になっていたのだ。
一方、AnthropicはClaudeを失った国防総省に代わるAIをどう調達するのかという問題も残る。OpenAIやGoogleのモデルが候補として浮上するが、いずれも「安全性への取り組みがAnthropicほど厳格ではない」と評価する専門家は少なくない。
さらに奇妙なのは、今回の指定と並行して、トランプ政権が交渉の場で「国防生産法」の発動をちらつかせ、Anthropicに技術の提供を強制しようとしていたという事実だ。それほど必要だと判断した技術を、なぜ同時に「敵国並みの脅威」として排除するのか。この矛盾は、政権内部の意思決定プロセスそのものへの疑問を呼んでいる。
日本への示唆——AIサプライチェーンの地政学
この問題は、日本にとっても対岸の火事ではない。日本の防衛省や経済産業省は、AIを安全保障・産業政策の両面から活用しようとしている。その際、米国製のAIモデルへの依存度は高く、AnthropicのClaudeやOpenAIのGPTシリーズは官民を問わず広く使われている。
今回の事例が示すのは、AIのサプライチェーンが地政学的な「武器」になりうるということだ。米国政府が自国のAI企業に対してさえ「供給網リスク」の指定を行うならば、同盟国の政府や企業が使用する外国製AIについても、同様の論理が将来的に適用されないとは言い切れない。
ソニー、トヨタ、NTTなど日本の大企業は、業務効率化や研究開発においてAIツールへの依存を深めている。もし特定のAIモデルが突然「使用禁止」になった場合、代替手段を素早く確保できる体制が整っているだろうか。日本政府が推進する「AIガバナンス」の議論において、サプライチェーンの多様化と国産AIの育成は、今後ますます重要な論点となるだろう。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
トランプ政権がAI企業アンソロピックを「サプライチェーンリスク」に指定。クロードAIが自律型兵器への使用を拒否したことが発端。日本企業への影響と、AI倫理をめぐる新たな対立構造を読み解く。
トランプ政権がベネズエラに対して用いた「最大圧力」戦略をイランに適用しようとしているが、地政学的文脈の違いから同じ結果は得られていない。日本のエネルギー安全保障への影響を読む。
G7諸国が緊急石油備蓄の共同放出を協議中。エネルギー価格の安定を狙う動きの背景と、日本の家計・産業への影響を多角的に分析します。
SIPRIの最新報告書によると、世界の武器移転は5年間で約10%増加。アジア諸国は「中国の意図への懸念」を背景に軍備増強を続けており、日本の防衛費拡大にも深く関わる問題です。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加