拒絕監控公民後,AI公司被列為「供應鏈風險」
Anthropic因拒絕美國防部將其AI用於大規模監控與自主武器而遭列為供應鏈風險。OpenAI與Google DeepMind逾30名員工聯署支持。這場科技與政府的對決,對全球AI治理意味著什麼?
一家AI公司說「不」,然後被自己的政府列為國家安全威脅。
2026年3月,美國發生了一件在AI產業史上罕見的事:Anthropic——Claude大型語言模型的開發商——被美國國防部(DOD)以「供應鏈風險」為由列入黑名單。這個標籤通常保留給外國敵對勢力,如今卻被貼在一家美國本土的頂尖AI企業身上。
起因,是Anthropic拒絕了一個要求。
事件始末:從合約到對簿公堂
Anthropic在與國防部的合約中,明確劃定了兩條「紅線」:其AI技術不得用於大規模監控美國公民,也不得用於自主發射武器的決策系統。這不是臨時起意,而是寫入合約的條款,也是Anthropic一貫的AI安全立場。
國防部對此強烈反彈,主張政府在採購AI服務後,應有權將其用於任何「合法目的」,不應受制於私人承包商的倫理條款。雙方談判破裂後,國防部隨即將Anthropic列為供應鏈風險——並在幾乎同一時間,與OpenAI簽署了新的合作協議。
這個時間點的巧合,引發了廣泛關注。
Anthropic隨後對國防部及相關聯邦機構提起兩項訴訟,指控這一指定行為是對其拒絕配合的政治報復,屬於「不當且武斷的權力濫用」。
業界罕見聯合:跨公司員工聯署聲援
訴訟提交後數小時,一份「法庭之友意見書」(Amicus Brief)出現在案件卷宗中。簽署者超過30人,來自OpenAI與Google DeepMind,包括Google DeepMind首席科學家Jeff Dean。
這份文件直接點出問題的核心:「如果國防部對合約條款不滿,大可直接終止合約,另尋其他AI服務商,而非以供應鏈風險的標籤來懲罰Anthropic。」
意見書同時警告,若此舉得逞,將對美國AI產業的國際競爭力造成實質傷害,並讓業界在討論AI風險與效益時產生寒蟬效應——沒有人敢再公開表達對政府客戶的顧慮。
值得注意的是,這些員工中許多人同時也在內部向自家公司管理層施壓,要求拒絕讓AI被單方面用於軍事用途。OpenAI與國防部簽約一事,已在OpenAI內部引發明顯抗議聲浪。
為何此刻格外重要
這場爭議的深層意義,在於它觸碰了一個懸而未決的問題:在缺乏公共法律規範AI軍事使用的情況下,誰有權設定邊界?
目前,全球絕大多數國家尚未立法明確規範AI在國防領域的使用方式。這意味著,約束AI用途的規則,實際上掌握在企業手中——通過合約條款與技術限制來實現。意見書也明確指出這一點:「在公法尚未跟上的情況下,開發者對自身系統施加的合約與技術限制,是防範災難性濫用的關鍵防線。」
然而,政府的立場同樣有其邏輯:民主選舉產生的政府,在採購合法服務後,是否應被私人企業的倫理判斷所約束?這個問題沒有簡單答案。
華人世界的視角:這與我們有什麼關係?
對於台灣、香港及東南亞華人社群而言,這場爭議有幾個值得關注的維度。
第一,供應鏈風險標籤的擴散效應。 「供應鏈風險」原本是地緣政治語境下針對特定國家企業的工具,如今被用於本國企業,代表這個標籤的使用邊界正在模糊。對於在全球供應鏈中深度參與的台灣科技業而言,這種標籤邏輯的演變值得持續觀察。
第二,AI治理的模式之爭。 美國此次的爭議,揭示了「企業自律」與「政府管控」兩種AI治理模式之間的張力。中國大陸採取的是更強的國家主導模式,歐盟則傾向於立法規範。這場美國內部的角力,可能影響全球AI治理規則的走向,進而影響亞洲市場的遊戲規則。
第三,對AI企業的採購決策影響。 若美國政府可以因企業拒絕配合特定用途而將其列為風險,那麼企業在面對政府客戶時的談判籌碼將大幅削弱。這對任何希望向政府機構銷售AI服務的企業——無論在哪個國家——都是一個警示。
接下來的走向
Anthropic的訴訟將進入司法程序,法院的裁決可能為「政府能否強制AI企業放棄倫理限制」這一問題確立先例。與此同時,美國國會是否會藉此契機推動AI軍事使用的立法規範,也值得關注。
OpenAI內部的抗議聲音,以及跨公司員工的聯署行動,也顯示出AI產業內部對於「誰來守門」的焦慮,正在從企業管理層蔓延至基層員工。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美國司法部與Live Nation達成和解,放棄要求拆分Ticketmaster。27州檢察長在不知情下遭「突襲」,宣布獨立繼續審判。分析壟斷爭議對演唱會市場與消費者的深遠影響。
美國防部將AI公司Anthropic列為供應鏈風險,導致其數億美元合約岌岌可危。這場科技倫理與國家安全的正面衝突,對全球AI產業意味著什麼?
Anthropic控告美國防部SCR指定,Google DeepMind與OpenAI逾30名研究員聯署支持。這場法律戰揭示AI治理的核心矛盾,對亞洲科技生態影響深遠。
Anthropic為Claude Code推出AI程式碼審查工具,年化營收突破25億美元。當AI同時承擔「寫程式」與「審程式」兩個角色,企業開發流程將如何重塑?
观点
分享你对这篇文章的看法
登录加入讨论