AIに言論の自由は認められるか?ペンタゴン対Anthropicの深層
AnthropicとペンタゴンのAI契約紛争は、単なるビジネス争いではない。憲法上の言論の自由、大統領権限の拡大、そしてAI規制の未来を左右する法的試練が静かに始まっている。
「あなたの会社の要求に応じなければ、あなたの会社を消滅させる」——もしこれが政府の交渉術だとしたら、あなたはどう感じるでしょうか。
2026年3月、まさにそれに近い事態が米国で起きています。AI企業のAnthropicと米国防総省(ペンタゴン)の間で勃発した法的紛争は、表面上は「AIの安全性をめぐる原則的な対立」に見えます。しかしその実態は、憲法上の言論の自由、行政権力の限界、そしてAI産業全体の未来に関わる、はるかに大きな問いを内包しています。
何が起きたのか——破局への経緯
AnthropicはAIアシスタント「Claude」を開発する米国のスタートアップで、約2億ドル規模の契約のもと、ペンタゴン向けに特化したバージョンを提供していました。問題となったのは、同社が設けていた二つの安全制限です。ひとつは「令状なしによる米国民の大規模監視への使用禁止」、もうひとつは「完全自律型兵器システムへの組み込み禁止」でした。
ペンタゴンはこの制限の撤廃を要求しました。AnthropicのCEO、Dario Amodei氏が明らかにしたところによると、ペンタゴンは拒否した場合の報復として、同社を「サプライチェーンリスク」に指定すると脅迫しました。この指定はこれまで、中国の通信企業ファーウェイなど外国の敵対勢力にのみ適用されてきたもので、米国企業に対して使われるのは前例がありません。
ペンタゴンは2026年3月初旬に実際にその指定を実行し、Anthropicを政府調達から事実上締め出しました。Anthropicは提訴し、この指定によって「数十億ドル規模の損害が生じる」と警告しています。
対立の直接的な引き金となったのは、ある内部告発的な出来事でした。ベネズエラのマドゥロ政権幹部を拘束した作戦の後、Anthropicの幹部が、Claudeをペンタゴンシステムに統合していたPalantir社に対し、AIがどのように使われたかを問い合わせました。Palantirはこれをペンタゴンに報告し、当局は「機密作戦への批判」と受け取りました。これが交渉決裂、そして訴訟へとつながります。
ここで注目すべき事実があります。3月4日、ペンタゴンCTOのEmil Michael氏がAmodei氏にメールを送り、「両者の立場は非常に近い」と記していたことが法廷文書で明らかになりました。しかしそのメールが送られたのは、サプライチェーンリスク指定が最終決定された翌日のことでした。もし本当に「非常に近い」状況だったなら、なぜ指定は撤回されなかったのか。法廷では今、この指定が「安全保障上の懸念」ではなく「交渉上の脅し」だったのではないかという問いが浮上しています。
AIは「言論」なのか——憲法問題の核心
この訴訟が単なる契約紛争ではない最大の理由は、Anthropicが修正第1条(言論の自由)違反を主張していることです。その論理はこうです。「AIが生成するアウトプットは情報であり、言論である。政府が企業に対し、自らの倫理に反するAIツールの構築を強制することは、強制的な言論(compelled speech)にあたる」。
ハーバード・ロースクールで教鞭をとり、スタンフォード大学の憲法センターにも籍を置いた弁護士、Matthew Seligman氏はこう解説します。「Anthropicが主張しているのは、本質的に、自社が従来の防衛請負業者とは異なるということです。彼らが政府に提供しているのは『言論機械』——その出力が爆発ではなく情報であるシステムです」。
法的な問いは明確です。AIモデルは、修正第1条の観点から、ロッキード・マーティンのような軍需メーカーと同一視すべきか、それとも情報分析官のような「言論を行う主体」と同一視すべきか。この問いに対する答えは、AI産業全体の規制可能性を根本から左右します。
バージニア・コモンウェルス大学でビジネス法とAIを教えるStephenie Brown弁護士は端的に言います。修正第1条の保護を得ることは「規制回避の最高基準」だと。一度この保護が認められれば、州レベルの規制は憲法上の問題をはらむことになり、連邦レベルの規制もはるかに高いハードルを越えなければならなくなります。
「企業を殺す権限」の恐怖——投資家への影響
Seligman氏が指摘する、より広い問題があります。「もし政府に企業を潰す権限を与えるなら、企業は常に『服従しなければ消される』という脅威の下に置かれる。そうなれば、企業は常に政府の言いなりにならざるを得ない」。
これは投資家にとっても深刻なリスクです。「ポートフォリオの中のどの企業も、国防総省の要求に従わなければいつでも潰される可能性があるとわかっていれば、投資リスクは計り知れないほど高まる」と同氏は言います。
Anthropicへの投資家には、Google(約30億ドル)やAmazon(約40億ドル)が含まれます。AI企業が米国政府の主要顧客になるという前提のもとで積み上げられてきた数千億ドル規模の投資が、今、その前提ごと揺らいでいます。
日本企業への影響も無視できません。ソニー、NTT、富士通など、米国のAIシステムを企業インフラに組み込む動きを進める日本企業は、こうした地政学的リスクを改めて評価する必要に迫られるかもしれません。米国政府が自国のAI企業を「サプライチェーンリスク」として扱える先例ができれば、同盟国の企業もその余波から無縁ではいられないからです。
トランプ政権のAI戦略——「規制なき支配」
この紛争が展開する背景には、トランプ政権のAI政策があります。政権は「AIの開発は速く進めるべきであり、連邦政府がその条件を設定すべき」という立場を明確にしています。2025年12月には、各州のAI法規制を「過度に制限的」と判断した場合に法的に挑戦するよう司法長官に指示する大統領令を発令。さらに、従わない州には連邦資金を停止するとも命じました。バージニア州はブロードバンド資金約14億5000万ドルを失うリスクを抱えながら、AI法案の修正を迫られています。
ここに深い逆説があります。トランプ政権は一方でAI規制に強く反対しながら、他方でAnthropicのケースを通じて、なぜAI規制が必要なのかを自ら証明しています。政権が目指しているのは「AIへの不干渉」ではなく、「議会にも裁判所にも縛られない、行政府による一元的なAI支配」なのかもしれません。
ジョージ・ワシントン大学の知的財産・テクノロジー・公民権法教授、Mary Ann Franks氏はこう指摘します。修正第1条はかつて「労働組合員や公民権活動家を守るもの」でした。それが1980〜90年代に「タバコ企業を守るもの」へと転換し、今や「テクノロジー企業を守るもの」になりつつある。「本来、修正第1条は国民を政府から守るためのものだった。しかし今は、政府を国民から守るために使われている」と彼女は言います。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米国防総省がAIスタートアップのアンソロピックをサプライチェーンリスクに指定。ウォーレン上院議員が「報復」と批判し、OpenAIの国防総省契約にも疑問を呈した。AI軍事利用の境界線をめぐる米国の攻防を読み解く。
スーパーマイクロの共同創業者がNvidia製AIチップの対中密輸で起訴。株価は33%急落。輸出規制の実効性と日本企業への影響を多角的に分析します。
破綻した仮想通貨取引所FTXの元CEOサム・バンクマン=フリードの政治献金が、2026年ニューヨーク民主党予備選挙の武器として使われている。AI安全法案を推進する候補者への攻撃が示す、テック業界と政治の新たな力学とは。
トランプ政権がAI規制の全国統一フレームワークを発表。州法を排除し、一本化された国家基準を目指す。日本企業や世界のAI競争にどんな影響を与えるのか。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加