Liabooks Home|PRISM News
AI公司告政府:拒絕軍事用途,反遭封殺
科技AI分析

AI公司告政府:拒絕軍事用途,反遭封殺

4分钟阅读Source

Anthropic因拒絕讓Claude用於自主戰爭與大規模監控,被川普政府列入黑名單。這場訴訟揭示AI企業倫理自主與國家權力之間的根本張力。

一家AI公司說「我的技術不能用來殺人」,然後被政府切斷了所有聯邦合約。這不是科幻小說,這是2026年3月正在美國法院上演的真實案件。

事件始末

Anthropic,Claude AI的開發商,於本週對川普政府提起訴訟,要求法院撤銷政府對其的黑名單決定。這場訴訟在加州北區聯邦地方法院提出,訴訟文件揭露了一連串令人矚目的事件經過。

Anthropic表示,他們明確告知政府,Claude無法安全可靠地用於「自主致命戰爭」及「大規模監控美國公民」。這一立場本身並不激進——事實上,國防部此前已與Anthropic就這些使用限制達成協議。然而,當Anthropic堅持這項判斷時,局勢急轉直下。

根據訴狀,總統隨即下令聯邦所有機構「立即停止使用Anthropic的一切技術」。數小時後,國防部長皮特·海格塞斯更進一步,將Anthropic列為「國家安全供應鏈風險」,並宣布凡與美軍有業務往來的承包商、供應商或合作夥伴,均不得與Anthropic進行任何商業活動。

Anthropic在訴狀中主張兩項核心論點:第一,美國憲法第一修正案保障其公開表達對自身AI服務限制及安全議題看法的權利;第二,「供應鏈風險」指定程序依法僅適用於防範敵對勢力破壞國家安全系統的情況,此次適用明顯違反國會所定程序。

為何這對華人世界格外值得關注

PRISM

廣告合作

[email protected]

表面上,這是一場美國國內的法律與政治爭議。但對於關注科技地緣政治的華人讀者而言,這個案件蘊含幾個值得深思的面向。

首先是供應鏈武器化的問題。川普政府使用「供應鏈風險」這一國家安全工具,針對的不是中國企業,而是一家美國本土AI公司。這意味著,「供應鏈安全」的概念正在被延伸,從原本防範外部威脅,演變為規訓國內企業行為的手段。對於長期關注美國如何以供應鏈安全為由限制華為中芯國際等企業的觀察者而言,這個工具的「內向使用」提供了一個新的觀察視角。

其次是AI倫理標準的碎片化。如果美國政府傾向於與「不設倫理限制」的AI供應商合作,那麼全球AI軍事應用的倫理標準將走向何方?這對正在制定自身AI治理框架的各國政府——包括台灣、新加坡、日本——都構成直接的政策參考。

第三,對於在美華人科技從業者與投資者而言,這個案件清晰地展示了:在當前政治環境下,即便是擁有充分商業合理性的企業決策,也可能在一夜之間因政治因素而面臨生存威脅。

各方如何解讀

從AI安全研究者的角度,Anthropic的立場有其技術依據。自主武器系統的可靠性與可預測性問題,在學術界早有廣泛討論。企業拒絕將技術用於其認為不安全的場景,本質上是一種負責任的工程倫理實踐。

從政府的角度,問題則更為複雜。民主政府是否有權決定哪些技術用於國防?私人企業以「倫理」為由拒絕配合政府政策,邊界在哪裡?這些問題在任何政治體制下都沒有簡單答案。

從商業競爭的角度,最值得注意的或許是這個問題:如果Anthropic被排除在政府採購之外,誰會填補這個空缺?OpenAIGoogleMicrosoft,抑或是其他對使用限制更「靈活」的供應商?這場訴訟的結果,可能重塑整個AI政府採購市場的競爭格局。

對於台灣的讀者,這個案例也提供了一個具體的參照:當科技企業的倫理判斷與政府的安全需求發生衝突時,法律制度能否提供有效的仲裁機制?

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]