AI公司告政府:拒絕軍事用途,反遭封殺
Anthropic因拒絕讓Claude用於自主戰爭與大規模監控,被川普政府列入黑名單。這場訴訟揭示AI企業倫理自主與國家權力之間的根本張力。
一家AI公司說「我的技術不能用來殺人」,然後被政府切斷了所有聯邦合約。這不是科幻小說,這是2026年3月正在美國法院上演的真實案件。
事件始末
Anthropic,Claude AI的開發商,於本週對川普政府提起訴訟,要求法院撤銷政府對其的黑名單決定。這場訴訟在加州北區聯邦地方法院提出,訴訟文件揭露了一連串令人矚目的事件經過。
Anthropic表示,他們明確告知政府,Claude無法安全可靠地用於「自主致命戰爭」及「大規模監控美國公民」。這一立場本身並不激進——事實上,國防部此前已與Anthropic就這些使用限制達成協議。然而,當Anthropic堅持這項判斷時,局勢急轉直下。
根據訴狀,總統隨即下令聯邦所有機構「立即停止使用Anthropic的一切技術」。數小時後,國防部長皮特·海格塞斯更進一步,將Anthropic列為「國家安全供應鏈風險」,並宣布凡與美軍有業務往來的承包商、供應商或合作夥伴,均不得與Anthropic進行任何商業活動。
Anthropic在訴狀中主張兩項核心論點:第一,美國憲法第一修正案保障其公開表達對自身AI服務限制及安全議題看法的權利;第二,「供應鏈風險」指定程序依法僅適用於防範敵對勢力破壞國家安全系統的情況,此次適用明顯違反國會所定程序。
為何這對華人世界格外值得關注
表面上,這是一場美國國內的法律與政治爭議。但對於關注科技地緣政治的華人讀者而言,這個案件蘊含幾個值得深思的面向。
首先是供應鏈武器化的問題。川普政府使用「供應鏈風險」這一國家安全工具,針對的不是中國企業,而是一家美國本土AI公司。這意味著,「供應鏈安全」的概念正在被延伸,從原本防範外部威脅,演變為規訓國內企業行為的手段。對於長期關注美國如何以供應鏈安全為由限制華為、中芯國際等企業的觀察者而言,這個工具的「內向使用」提供了一個新的觀察視角。
其次是AI倫理標準的碎片化。如果美國政府傾向於與「不設倫理限制」的AI供應商合作,那麼全球AI軍事應用的倫理標準將走向何方?這對正在制定自身AI治理框架的各國政府——包括台灣、新加坡、日本——都構成直接的政策參考。
第三,對於在美華人科技從業者與投資者而言,這個案件清晰地展示了:在當前政治環境下,即便是擁有充分商業合理性的企業決策,也可能在一夜之間因政治因素而面臨生存威脅。
各方如何解讀
從AI安全研究者的角度,Anthropic的立場有其技術依據。自主武器系統的可靠性與可預測性問題,在學術界早有廣泛討論。企業拒絕將技術用於其認為不安全的場景,本質上是一種負責任的工程倫理實踐。
從政府的角度,問題則更為複雜。民主政府是否有權決定哪些技術用於國防?私人企業以「倫理」為由拒絕配合政府政策,邊界在哪裡?這些問題在任何政治體制下都沒有簡單答案。
從商業競爭的角度,最值得注意的或許是這個問題:如果Anthropic被排除在政府採購之外,誰會填補這個空缺?OpenAI、Google、Microsoft,抑或是其他對使用限制更「靈活」的供應商?這場訴訟的結果,可能重塑整個AI政府採購市場的競爭格局。
對於台灣的讀者,這個案例也提供了一個具體的參照:當科技企業的倫理判斷與政府的安全需求發生衝突時,法律制度能否提供有效的仲裁機制?
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
與特朗普陣營關係深厚的Event Strategies公司,在特朗普重返白宮後一年內獲得逾2600萬美元聯邦合約。競標程序形同虛設,政治酬庸疑雲籠罩。
美國保守派媒體人塔克·卡爾森的網路商店,販售印有鐮刀錘子的「NY Commie」棒球帽與反新保守派標語商品,卻吸引了政治立場相左的買家。這個現象揭示了當代政治文化商品化的深層矛盾。
OpenAI共同創辦人穆拉提的Thinking Machines Lab與輝達簽署大型算力協議,估值逾120億美元。這場交易揭示了AI基礎設施競賽的新格局,對亞洲市場意味著什麼?
蘋果已在印度生產全球25%的iPhone,加速脫離中國依賴。這場供應鏈重組對中國、台灣、東南亞及全球科技產業將帶來哪些深遠影響?
观点
分享你对这篇文章的看法
登录加入讨论