AIに「何でも使う」は通じない――国防総省 vs Anthropic
米国防総省がAnthropicを「サプライチェーンリスク」に指定。大量監視や自律兵器への使用拒否が引き金に。OpenAI・Google DeepMind社員30名超が支持声明。AI業界と政府の緊張が日本にも波及する可能性を読む。
民間企業が「倫理的に使えない」と断ったとき、政府はその企業を敵と見なせるのか。
2026年3月、米国でその問いが法廷の場に持ち込まれました。AI企業のAnthropicが、米国防総省(DOD)から「サプライチェーンリスク」に指定されたのです。この指定は通常、外国の敵対勢力に対して使われる措置です。自国の民間AI企業に向けられたのは、異例中の異例でした。
何が起きたのか――拒否から制裁へ
事の発端は、AnthropicがDODに対して「ノー」と言ったことです。具体的には、AIを使ったアメリカ市民の大量監視と、自律的な兵器の発射制御への利用を拒否しました。Anthropic側は、これを自社AIシステムの「レッドライン(越えてはならない一線)」として契約に明記していました。
DODはこれに反発し、「合法的な目的であれば、民間請負業者にAIの使途を制限される筋合いはない」と主張。そしてAnthropicをサプライチェーンリスクに指定した直後、代替としてOpenAIとの契約を締結しました。このタイミングの鮮やかさは、業界内外に強い印象を残しました。
Anthropicはこれを不当な報復と判断し、DODおよび関連連邦機関を相手取り、2件の訴訟を提起しました。
業界が動いた――30名超の連帯署名
訴訟提起からわずか数時間後、法廷に予想外の文書が提出されました。OpenAIとGoogle DeepMindの従業員30名以上が署名した「アミカス・ブリーフ(法廷助言書)」です。署名者には、Google DeepMindのチーフサイエンティストであるJeff Deanも含まれています。
文書の中で彼らは、「もしDODが契約条件に不満であれば、単純に契約を解除して別のAI企業のサービスを購入すればよかった」と指摘します。そして、今回の措置が放置されれば「米国のAI産業・科学分野における競争力に深刻な影響を及ぼし、AI技術のリスクと便益に関する業界内の開かれた議論を萎縮させる」と警告しました。
注目すべきは、この署名者の多くが直属の雇用主である企業のトップに対しても、「自社AIの一方的な軍事利用を認めないよう」求める公開書簡に署名していた点です。OpenAIが国防総省と締結した新たな契約に対しても、社内から抗議の声が上がっています。
なぜ今、これが重要なのか
この対立が示すのは、AI技術の「使い方のルール」を誰が決めるのか、という根本的な問いです。
これまで、AIの倫理的利用に関するガイドラインの多くは、企業が自主的に設定してきました。公的な法律が追いついていない領域では、契約上の制限や技術的な制約が「最後の防波堤」として機能してきたのです。今回の法廷文書もその点を強調しています。「公法によるAI利用の規制がない状況では、開発者が自社システムに課す契約上・技術上の制限が、壊滅的な悪用に対する重要な安全装置だ」と。
しかし政府側の論理も単純に退けられません。民主的な手続きを経て選ばれた政府が、合法的な目的のために調達した技術の使途を、民間企業の倫理基準によって制限されるべきか、という問いは、法哲学的にも難しい問題をはらんでいます。
日本への視点――他人事ではない構図
日本にとってこの問題は、遠い米国の話ではありません。
日本政府も防衛力強化の一環として、AIの軍事・安全保障分野への活用を検討しています。防衛省はAI活用に関する研究開発を推進しており、民間企業との連携も模索されています。もし米国と同様の構図――政府がAIの「何でも使える権利」を主張し、企業が倫理的な制限を設ける――が生じた場合、日本企業はどう対応するでしょうか。
また、Sony、富士通、NTTなどの日本企業が海外のAIサービスを調達・活用する際、そのサービスプロバイダーがこうした政治的リスクにさらされていることも、調達判断に影響を与える可能性があります。「サプライチェーンリスク」という言葉が、今後は地政学的な文脈だけでなく、国内政治的な文脈でも使われる時代が来るかもしれません。
一方で、今回のOpenAIとGoogle DeepMindの従業員たちの行動は、AI業界における「技術者の倫理的責任」という問いを改めて浮かび上がらせます。日本の技術者コミュニティも、同様の問いと向き合う日が来るかもしれません。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米国防総省がAIスタートアップのAnthropicをサプライチェーンリスクに指定。数億ドルの収益が危機に瀕し、同社は政府を提訴。AI企業の倫理的立場と国家安全保障の衝突が問う、深い問いとは。
AnthropicがペンタゴンのSCR指定を巡り提訴。GoogleとOpenAIの研究者30名以上がアミカスブリーフに署名。AIガバナンスと米国競争力を問う法廷闘争の深層を読む。
米国防総省とAnthropicの対立が浮き彫りにした問題——AIが監視技術を強化する今、法律は現実に追いついているのか。日本社会への示唆も含めて考える。
AnthropicがAIコードレビューツール「Code Review」をClaude Codeに追加。年率25億ドル超の収益を背景に、企業開発現場の「レビュー渋滞」解消を狙う。開発速度と品質の両立は実現するか。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加