Liabooks Home|PRISM News
拒絕監控公民後,AI公司被列為「供應鏈風險」
科技AI分析

拒絕監控公民後,AI公司被列為「供應鏈風險」

4分钟阅读Source

Anthropic因拒絕美國防部將其AI用於大規模監控與自主武器而遭列為供應鏈風險。OpenAI與Google DeepMind逾30名員工聯署支持。這場科技與政府的對決,對全球AI治理意味著什麼?

一家AI公司說「不」,然後被自己的政府列為國家安全威脅。

2026年3月,美國發生了一件在AI產業史上罕見的事:Anthropic——Claude大型語言模型的開發商——被美國國防部(DOD)以「供應鏈風險」為由列入黑名單。這個標籤通常保留給外國敵對勢力,如今卻被貼在一家美國本土的頂尖AI企業身上。

起因,是Anthropic拒絕了一個要求。

事件始末:從合約到對簿公堂

Anthropic在與國防部的合約中,明確劃定了兩條「紅線」:其AI技術不得用於大規模監控美國公民,也不得用於自主發射武器的決策系統。這不是臨時起意,而是寫入合約的條款,也是Anthropic一貫的AI安全立場。

國防部對此強烈反彈,主張政府在採購AI服務後,應有權將其用於任何「合法目的」,不應受制於私人承包商的倫理條款。雙方談判破裂後,國防部隨即將Anthropic列為供應鏈風險——並在幾乎同一時間,與OpenAI簽署了新的合作協議。

這個時間點的巧合,引發了廣泛關注。

Anthropic隨後對國防部及相關聯邦機構提起兩項訴訟,指控這一指定行為是對其拒絕配合的政治報復,屬於「不當且武斷的權力濫用」。

業界罕見聯合:跨公司員工聯署聲援

訴訟提交後數小時,一份「法庭之友意見書」(Amicus Brief)出現在案件卷宗中。簽署者超過30人,來自OpenAIGoogle DeepMind,包括Google DeepMind首席科學家Jeff Dean

這份文件直接點出問題的核心:「如果國防部對合約條款不滿,大可直接終止合約,另尋其他AI服務商,而非以供應鏈風險的標籤來懲罰Anthropic。」

PRISM

廣告合作

[email protected]

意見書同時警告,若此舉得逞,將對美國AI產業的國際競爭力造成實質傷害,並讓業界在討論AI風險與效益時產生寒蟬效應——沒有人敢再公開表達對政府客戶的顧慮。

值得注意的是,這些員工中許多人同時也在內部向自家公司管理層施壓,要求拒絕讓AI被單方面用於軍事用途。OpenAI與國防部簽約一事,已在OpenAI內部引發明顯抗議聲浪。

為何此刻格外重要

這場爭議的深層意義,在於它觸碰了一個懸而未決的問題:在缺乏公共法律規範AI軍事使用的情況下,誰有權設定邊界?

目前,全球絕大多數國家尚未立法明確規範AI在國防領域的使用方式。這意味著,約束AI用途的規則,實際上掌握在企業手中——通過合約條款與技術限制來實現。意見書也明確指出這一點:「在公法尚未跟上的情況下,開發者對自身系統施加的合約與技術限制,是防範災難性濫用的關鍵防線。」

然而,政府的立場同樣有其邏輯:民主選舉產生的政府,在採購合法服務後,是否應被私人企業的倫理判斷所約束?這個問題沒有簡單答案。

華人世界的視角:這與我們有什麼關係?

對於台灣、香港及東南亞華人社群而言,這場爭議有幾個值得關注的維度。

第一,供應鏈風險標籤的擴散效應。 「供應鏈風險」原本是地緣政治語境下針對特定國家企業的工具,如今被用於本國企業,代表這個標籤的使用邊界正在模糊。對於在全球供應鏈中深度參與的台灣科技業而言,這種標籤邏輯的演變值得持續觀察。

第二,AI治理的模式之爭。 美國此次的爭議,揭示了「企業自律」與「政府管控」兩種AI治理模式之間的張力。中國大陸採取的是更強的國家主導模式,歐盟則傾向於立法規範。這場美國內部的角力,可能影響全球AI治理規則的走向,進而影響亞洲市場的遊戲規則。

第三,對AI企業的採購決策影響。 若美國政府可以因企業拒絕配合特定用途而將其列為風險,那麼企業在面對政府客戶時的談判籌碼將大幅削弱。這對任何希望向政府機構銷售AI服務的企業——無論在哪個國家——都是一個警示。

接下來的走向

Anthropic的訴訟將進入司法程序,法院的裁決可能為「政府能否強制AI企業放棄倫理限制」這一問題確立先例。與此同時,美國國會是否會藉此契機推動AI軍事使用的立法規範,也值得關注。

OpenAI內部的抗議聲音,以及跨公司員工的聯署行動,也顯示出AI產業內部對於「誰來守門」的焦慮,正在從企業管理層蔓延至基層員工。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]