Liabooks Home|PRISM News
AI拒絕軍令算叛國嗎?Anthropic與五角大廈的世紀之訴
科技AI分析

AI拒絕軍令算叛國嗎?Anthropic與五角大廈的世紀之訴

4分钟阅读Source

Anthropic因拒絕讓Claude用於自主武器而遭美國防部列為供應鏈風險,面臨數十億美元損失。這場訴訟揭示AI倫理與國家安全之間最根本的張力,對全球AI治理格局影響深遠。

當一家AI公司說「我的模型不能用來殺人」,政府說「這是叛逆」——誰說了算?

這不是科幻小說的情節。2026年3月,這場爭論正在美國聯邦法院真實上演。

事件經過:一個「倫理紅線」引發的法律戰

AnthropicClaude AI模型的開發商,正在舊金山聯邦法院挑戰川普政府的一項決定。五角大廈將其列為「供應鏈風險」,實質上切斷了該公司與國防部的合約關係。若這項認定維持,Anthropic今年可能損失數十億美元的預期收入。

爭議的起點,是Anthropic對自家AI模型的使用設下限制:Claude不應被用於對美國公民的大規模監控,也尚未可靠到足以驅動完全自主的武器系統。

五角大廈的反應強烈。國防部長皮特·赫格塞斯認定,Anthropic員工可能在戰時「依自身判斷」破壞、篡改或癱瘓部署於國家安全系統中的AI模型。司法部在本週二的法庭文件中寫道,政府行動的動機是「擔憂Anthropic若繼續擁有訪問政府技術系統的權限,未來可能採取的行動」。

目前,Claude是國防部機密系統中唯一獲得授權的AI模型,主要透過數據分析巨頭Palantir的軟體運行。政府坦承「無法說切就切」,正計劃在未來數月內引入GoogleOpenAIxAI的替代方案。

法律攻防:誰的論點更站得住腳?

Anthropic主張,供應鏈風險認定是非法的報復行為,侵犯了公司的言論自由(第一修正案)。多名法律專家認為這個論點有相當說服力。值得注意的是,目前已有微軟、AI研究人員群體、聯邦雇員工會及前軍方將領提交支持Anthropic的法庭意見書,支持政府一方的意見書則一份都沒有

PRISM

廣告合作

[email protected]

政府的反駁同樣直接:「第一修正案不是企業向政府單方面強加合約條款的許可證。」司法部律師強調,政府並未限制Anthropic的言論自由,只是拒絕讓一個「可能在戰時按自身企業紅線行事」的供應商繼續存取敏感系統。

法官麗塔·林預定下週二舉行聽證,決定是否在訴訟期間暫時恢復Anthropic的業務。Anthropic須在本週五前提交反駁意見。

更大的圖景:這場訴訟在問什麼

表面上,這是一場合約糾紛。但它真正觸碰的問題是:AI公司有沒有資格為自己的產品設定倫理邊界,即便客戶是國家?

這個問題對全球AI治理格局意義深遠,對華人世界尤其如此。

從地緣政治角度看,美國正在加速將AI整合進軍事決策鏈。若法院最終裁定「企業無權對政府用途設限」,等於確立了一個先例:AI供應商必須無條件服從國家指令。這與中國大陸現行的AI治理邏輯——國家對AI應用擁有最終裁量權——在結果上趨於相似,只是路徑截然不同。

對台灣、日本、韓國等美國盟友而言,這場訴訟的結果將直接影響它們與美方進行AI軍事技術合作的條件與風險評估。若美國的AI採購政策轉向「無條件服從」,盟友企業在參與相關合作時,也將面臨更複雜的倫理與法律考量。

對東南亞及其他新興市場的AI採購方來說,這個案例提供了一個重要的參考框架:與西方AI巨頭合作,是否意味著接受其企業倫理標準?還是說,這些標準在壓力下其實相當脆弱?

三個視角,三種解讀

從國防安全視角:戰場上的AI若在關鍵時刻「依良心拒絕執行」,後果可能是災難性的。軍事系統的核心要求是可預測性與一致性,而非道德自主性。

從AI安全研究視角Anthropic設下的限制,恰恰是AI安全領域長期倡導的「人類監督」與「倫理護欄」的具體實踐。若這被定性為威脅,AI安全投資的動機將大幅削弱——這對所有人都是壞消息。

從商業競爭視角OpenAIGooglexAI在此案中立場微妙。Anthropic出局,它們是短期受益者;但同樣的判例,未來可能反過來約束它們自己的產品政策。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]