AI拒絕軍令算叛國嗎?Anthropic與五角大廈的世紀之訴
Anthropic因拒絕讓Claude用於自主武器而遭美國防部列為供應鏈風險,面臨數十億美元損失。這場訴訟揭示AI倫理與國家安全之間最根本的張力,對全球AI治理格局影響深遠。
當一家AI公司說「我的模型不能用來殺人」,政府說「這是叛逆」——誰說了算?
這不是科幻小說的情節。2026年3月,這場爭論正在美國聯邦法院真實上演。
事件經過:一個「倫理紅線」引發的法律戰
Anthropic,Claude AI模型的開發商,正在舊金山聯邦法院挑戰川普政府的一項決定。五角大廈將其列為「供應鏈風險」,實質上切斷了該公司與國防部的合約關係。若這項認定維持,Anthropic今年可能損失數十億美元的預期收入。
爭議的起點,是Anthropic對自家AI模型的使用設下限制:Claude不應被用於對美國公民的大規模監控,也尚未可靠到足以驅動完全自主的武器系統。
五角大廈的反應強烈。國防部長皮特·赫格塞斯認定,Anthropic員工可能在戰時「依自身判斷」破壞、篡改或癱瘓部署於國家安全系統中的AI模型。司法部在本週二的法庭文件中寫道,政府行動的動機是「擔憂Anthropic若繼續擁有訪問政府技術系統的權限,未來可能採取的行動」。
目前,Claude是國防部機密系統中唯一獲得授權的AI模型,主要透過數據分析巨頭Palantir的軟體運行。政府坦承「無法說切就切」,正計劃在未來數月內引入Google、OpenAI及xAI的替代方案。
法律攻防:誰的論點更站得住腳?
Anthropic主張,供應鏈風險認定是非法的報復行為,侵犯了公司的言論自由(第一修正案)。多名法律專家認為這個論點有相當說服力。值得注意的是,目前已有微軟、AI研究人員群體、聯邦雇員工會及前軍方將領提交支持Anthropic的法庭意見書,支持政府一方的意見書則一份都沒有。
政府的反駁同樣直接:「第一修正案不是企業向政府單方面強加合約條款的許可證。」司法部律師強調,政府並未限制Anthropic的言論自由,只是拒絕讓一個「可能在戰時按自身企業紅線行事」的供應商繼續存取敏感系統。
法官麗塔·林預定下週二舉行聽證,決定是否在訴訟期間暫時恢復Anthropic的業務。Anthropic須在本週五前提交反駁意見。
更大的圖景:這場訴訟在問什麼
表面上,這是一場合約糾紛。但它真正觸碰的問題是:AI公司有沒有資格為自己的產品設定倫理邊界,即便客戶是國家?
這個問題對全球AI治理格局意義深遠,對華人世界尤其如此。
從地緣政治角度看,美國正在加速將AI整合進軍事決策鏈。若法院最終裁定「企業無權對政府用途設限」,等於確立了一個先例:AI供應商必須無條件服從國家指令。這與中國大陸現行的AI治理邏輯——國家對AI應用擁有最終裁量權——在結果上趨於相似,只是路徑截然不同。
對台灣、日本、韓國等美國盟友而言,這場訴訟的結果將直接影響它們與美方進行AI軍事技術合作的條件與風險評估。若美國的AI採購政策轉向「無條件服從」,盟友企業在參與相關合作時,也將面臨更複雜的倫理與法律考量。
對東南亞及其他新興市場的AI採購方來說,這個案例提供了一個重要的參考框架:與西方AI巨頭合作,是否意味著接受其企業倫理標準?還是說,這些標準在壓力下其實相當脆弱?
三個視角,三種解讀
從國防安全視角:戰場上的AI若在關鍵時刻「依良心拒絕執行」,後果可能是災難性的。軍事系統的核心要求是可預測性與一致性,而非道德自主性。
從AI安全研究視角:Anthropic設下的限制,恰恰是AI安全領域長期倡導的「人類監督」與「倫理護欄」的具體實踐。若這被定性為威脅,AI安全投資的動機將大幅削弱——這對所有人都是壞消息。
從商業競爭視角:OpenAI、Google、xAI在此案中立場微妙。Anthropic出局,它們是短期受益者;但同樣的判例,未來可能反過來約束它們自己的產品政策。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI向美國防部開放AI存取權限,生成式AI可能協助選定伊朗打擊目標。這是AI倫理與國家安全的交叉路口,也是全球科技版圖的新變局。
NASA阿提米斯二號即將成為1972年以來首次載人繞月任務。面對深太空飛行的未知風險,NASA官員在記者會上的謹慎措辭,揭示了什麼?
Anthropic拒絕五角大廈、OpenClaw引爆AI代理風潮、數據中心建設熱潮帶來的隱性成本——2026年AI產業三大結構性衝突,深度解析。
MIT調查揭示:九成產品工程領導者將增加AI投資,但步伐刻意放緩。在製造業AI競賽中,亞洲企業面臨速度與安全的兩難抉擇。
观点
分享你对这篇文章的看法
登录加入讨论