Liabooks Home|PRISM News
當AI拒絕殺人,政府會怎麼做?
科技AI分析

當AI拒絕殺人,政府會怎麼做?

4分钟阅读Source

美國防部將AI公司Anthropic列為供應鏈風險,導致其數億美元合約岌岌可危。這場科技倫理與國家安全的正面衝突,對全球AI產業意味著什麼?

一家AI公司告訴政府:「我們的技術還不夠安全,不能用來自主殺人。」政府的回應是:把它列為國家安全威脅。

2026年2月下旬,美國國防部將Anthropic列為「供應鏈風險」企業。這個標籤的導火線,是Anthropic拒絕配合五角大廈將其AI用於大規模國內監控與自主致命武器系統的要求。然而,這場衝突所引發的連鎖反應,已遠遠超出一紙法律文件的邊界。

事件全貌:數字說話

Anthropic首席財務官Krishna Rao在法庭文件中披露了幾個關鍵數字:公司自2023年商業化以來,累計營收已超過50億美元;訓練和部署模型的總支出超過100億美元;而今年僅與五角大廈相關業務的預期收入,就有數億美元面臨風險。

首席商務官Paul Smith則列舉了具體案例。一家金融服務企業暫停了1,500萬美元的合約談判;兩家頂級金融公司要求獲得「無條件單方面解約權」,否則拒絕簽署合計8,000萬美元的合約;一家連鎖超市取消了商務會議;一家大型製藥企業要求將合約縮短10個月;一家金融科技客戶則要求將1,000萬美元的計劃削減一半。

國防部長Pete Hegseth在X平台上發文稱:「即日起,任何與美國軍方有業務往來的承包商、供應商或合作夥伴,均不得與Anthropic進行任何商業活動。」這句話的法律效力存疑,但市場效果立竿見影。據報導,部分聯邦機構甚至向與軍方毫無關聯的民間企業施壓,要求停止使用AnthropicClaude AI——一家受壓企業的代表坦言:「我們知道沒有法律依據,但別無選擇。」

Anthropic已在舊金山聯邦法院和華盛頓特區聯邦上訴法院同時提起訴訟,分別指控政府侵犯言論自由,以及對其進行不公平歧視和報復。

PRISM

廣告合作

[email protected]

為何此刻值得關注

這場爭議的時間點並非偶然。AnthropicClaude模型近期在程式碼生成等領域的表現已超越競爭對手,正處於商業擴張的關鍵節點。與此同時,AmazonMicrosoft宣布將繼續向客戶提供Anthropic的AI工具,但國防部相關業務除外——這個「但書」本身,就已劃出了一條耐人尋味的邊界。

更深層的問題在於:誰有權判斷AI是否足夠安全?Anthropic認為,自主AI武器系統在技術上尚未達到安全門檻;五角大廈則認為,這個判斷權屬於政府,而非企業。這不只是一場商業糾紛,而是關於「科技公司能否持有倫理立場」的根本性爭論。

華人世界的視角

對於台灣、香港及東南亞的華人科技從業者和投資人而言,這個案例提供了幾個值得深思的維度。

首先是供應鏈的政治化。美國對Anthropic的處理方式,與此前對華為TikTok的邏輯有相似之處——以國家安全為由,將商業決策政治化。差異在於,這次的對象是一家美國本土企業,這意味著任何AI公司,無論國籍,都可能面臨類似的政治風險。

其次是亞洲市場的替代機遇。若Anthropic的國際業務持續受壓,部分亞洲企業可能轉向其他AI供應商。這既是市場重組的機會,也是評估各家AI平台地緣政治穩定性的提醒。

第三是監管模式的對比。中國大陸對AI的監管邏輯是「先規範,後開放」,政府主導技術邊界的劃定。美國此次的做法則顯示,即便在「自由市場」體系下,政府同樣可以透過非正式壓力塑造AI產業的走向。兩種模式的本質差異,或許比表面看起來更小。

Rao在文件中警告,當前局勢「可能嚴重損害市場信心,以及Anthropic籌集訓練下一代模型所需資本的能力」。在AI競賽中,資金鏈的穩定性直接決定技術競爭力——這一點,無論身處哪個市場的從業者,都應當認真對待。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]