當AI成為戰場的大腦——Anthropic與五角大廈的衝突揭示了什麼
Anthropic拒絕給予美國防部無條件使用Claude的權限,遭報復後提告。AI如何嵌入美軍作戰系統?這場衝突對全球AI治理意味著什麼?
輸入一行文字:「針對這批敵方裝甲,生成三個行動方案。」幾秒鐘後,螢幕上出現了三個選項——空中打擊、遠程炮兵、地面突擊隊。這不是電影情節,而是Palantir公開展示的軍事AI操作介面。而那個生成答案的「大腦」,正是Anthropic的Claude。
衝突的起點
2026年2月底,Anthropic拒絕了美國國防部(五角大廈)對其AI模型Claude的無條件存取要求。Anthropic堅持:Claude不得用於對美國公民的大規模監控,也不得用於完全自主的武器系統。
五角大廈的回應強硬而迅速——將Anthropic的產品列為「供應鏈風險」。本週,Anthropic以遭受川普政府非法報復為由,提起兩項訴訟,要求撤銷這一認定。
這場衝突的核心,在於Anthropic與軍事科技巨頭Palantir在2024年11月宣布的合作協議。根據協議,Claude被整合進Palantir銷售給美國情報與國防機構的軟體平台。據報導,Claude已被用於伊朗軍事行動,以及導致委內瑞拉總統馬杜羅被捕的行動中。
AI在戰場上究竟做什麼
要理解這場爭議的重量,必須先了解Palantir的軍事AI系統如何運作。
Palantir自2017年起承包國防部「Project Maven」,開發了「Maven Smart System」。這套系統能分析衛星影像、自動識別敵方目標、推薦轟炸對象,甚至建議應派遣哪種轟炸機、使用哪種彈藥。美國陸軍、空軍、海軍、海軍陸戰隊、太空軍及中央司令部均可存取這套系統。五角大廈首席數位暨AI官員表示,Maven已「部署至整個國防部」。
Claude透過Palantir的「AIP(人工智慧平台)」嵌入這些系統。AIP提供一個聊天介面,讓分析師能像使用ChatGPT一樣,向AI提問、請求分析、生成行動方案。關鍵在於:AIP允許客戶指定AI從機密數據庫中提取資料,這對情報工作至關重要。
Anthropic公共部門主管的演示顯示,Claude能在數分鐘內生成一份關於烏克蘭無人機攻擊行動的詳細情報報告——這份工作若由人類分析師完成,需要耗費整整五個小時。
為什麼這場衝突值得華人世界關注
表面上,這是一家美國AI公司與美國政府之間的商業糾紛。但它揭示的問題,遠比這更深遠。
第一,AI倫理的邊界在哪裡?Anthropic禁止「完全自主武器」的使用,但它允許AI推薦攻擊目標、生成作戰路線、建議部隊部署。當AI深度嵌入決策鏈條,「人類保有最終判斷」這條原則,還有多少實質意義?
第二,這是一個關於科技主權的訊號。 美國政府以「供應鏈風險」為由向Anthropic施壓,邏輯與美國對華為、TikTok的打壓如出一轍——只是這次,箭頭指向了本國企業。這說明,在國家安全框架下,沒有任何科技公司能真正保持中立。
對台灣、香港及東南亞華人社群而言,這個訊號尤其值得注意:當AI系統成為軍事基礎設施的核心,誰控制AI,誰就掌握了新形態的戰略優勢。
第三,中美AI競爭的另一個維度。 美國軍方急於整合AI能力,部分原因正是對中國解放軍推進「智能化戰爭」的焦慮。Anthropic與五角大廈的衝突,折射出美國在「快速軍事AI化」與「維持AI倫理標準」之間的內在張力——而這種張力,中國同樣面臨,只是以不同的方式呈現。
不同立場的算盤
從五角大廈的角度看,AI工具的無條件存取是作戰效能的必要條件。讓一家私人企業設定使用限制,在他們看來是對國家主權的侵蝕。
從Anthropic的角度看,這場訴訟既是法律戰,也是公關戰。作為一家以「AI安全」為旗幟的公司,若在軍事使用上毫無底線,將失去大量關注AI倫理的客戶與人才。
從科技產業的角度看,這個案例將成為先例。其他AI公司——包括Google、Meta、微軟——都在密切觀察:政府能否強迫企業放棄使用條款?若答案是肯定的,AI倫理承諾將淪為空談。
值得一提的是,Google在2018年因員工強烈反對,放棄了Project Maven的合約續簽。八年後,Palantir成為這個計畫的核心承包商,並將Claude整合其中。科技公司與軍事的距離,似乎並沒有因為倫理討論而拉大。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美伊開戰再度打亂全球供應鏈。物流科技公司Flexport執行長揭露霍爾木茲海峽的真實現況,以及AI如何在危機中證明自身價值,最終代價由誰承擔?
美以空襲伊朗後兩週,醫療器材龍頭Stryker遭受毀滅性網路攻擊。與伊朗政府有關聯的Handala Hack宣稱負責,這對亞洲企業意味著什麼?
美國國防部正將生成式AI用於軍事目標優先排序,ChatGPT與Grok可能進入機密作戰環境。伊朗女校遭襲事件引發全球對AI軍事倫理的深層追問。
一個「供應鏈風險」標籤讓Anthropic損失8000萬美元合約。這場AI公司對抗美國政府的訴訟,揭示了科技業最脆弱的一面。
观点
分享你对这篇文章的看法
登录加入讨论