當AI走上戰場,誰來決定它的「良知」?
美國國防部與Anthropic的合約破局,揭開了一個更深的問題:在自律武器時代,AI模型內建的價值觀究竟由誰定義?這場衝突對中美科技競爭與台海局勢意味著什麼?
一行合約條文,讓美國最重要的AI公司之一,被自己的政府貼上「供應鏈風險」的標籤。
2026年3月,Anthropic與美國國防部(DOD)的合作破局。導火線看似簡單:國防部要求刪除合約中「禁止用於大規模監控美國公民」及「禁止用於自律武器」的條款,Anthropic拒絕,合約告吹。隨後,國防部長Pete Hegseth將Anthropic列為「供應鏈風險」——這個標籤,過去只用於被指控為中國政府服務的華為。
這不只是一樁商業糾紛。它是一面鏡子,映照出AI軍事化時代最核心的矛盾:當一項技術的「個性」與「價值觀」被設計進去,再交給軍隊使用,究竟發生了什麼?
從Project Maven到戰場Claude:九年的加速
要理解今天的局面,必須回到2017年。美國國防部啟動Project Maven,委託Google以電腦視覺演算法分析無人機影像,將數據轉化為「可行動的情報」。Google內部工程師爆發抗議,最終撤出合約。當時的核心恐懼是:這條路,通往自律武器。
九年後,那個恐懼已成現實的輪廓。
Wired資深記者Will Knight指出,今天的AI軍事應用,遠不只是圖像辨識。在烏克蘭戰場,現成商用無人機被武器化,AI控制的「蜂群戰術」——20架以上無人機協同攻擊同一目標——讓人力操控在物理上變得不可能。自律化,正從防禦性系統蔓延至更廣泛的場景。
Anthropic向國防部提供的,是名為「Claude Gov」的特製版本。相較於一般Claude對武器相關問題的拒絕回應,這個版本移除了部分限制。但問題在於:移除多少?移除哪些?這些,外界無從得知。
AI的「人格」上了戰場
Knight的描述,讓這個問題變得更加具體。他說,現階段軍事AI的主要角色,更像是「高階情報分析師」而非「扣扳機的手」——它整合地圖、信號情報、歷史數據,回答指揮官的提問,提供判斷依據。人類仍然做出最終決定。
然而,這裡藏著一個微妙的陷阱。
這些模型說話的方式,極度像人。它們會給出自信的答案,一次又一次地「正確」,讓使用者建立起信任。然後,在某個意想不到的時刻,它們會給出一個「完全瘋狂的答案」——用Knight的話說。這種失敗模式,與人類的失誤截然不同:它不是疲勞,不是偏見,而是系統性的不可預測性。
當這樣的系統進入決策鏈,而決策的終點是生死,失敗率的意義就完全改變了。「千分之一的錯誤率,在什麼情境下可以接受?」Knight問道。這個問題,目前沒有公開答案。
台海的陰影:伊朗只是「前哨戰」
這場爭論的背景,遠比一份合約更沉重。
Bloomberg引述一位熟悉美軍行動的人士的話:「伊朗,是可能發生在中國與台灣身上的事情的驚人前哨戰。」這句話,在華人世界有著特殊的重量。
Knight坦言,美國國防部內部有一種強烈的緊迫感——擔心在AI軍事應用上落後於中國。這種焦慮,正在加速推進部署,同時壓縮安全審查的空間。而加速本身,歷史上並非沒有代價。Knight提醒:「一戰的爆發,部分原因正是各國拼命武裝自己,最終讓衝突成為自我實現的預言。」
對台灣、對整個華人世界而言,這不是抽象的地緣政治討論。當AI輔助的決策系統被整合進美軍的作戰鏈,當自律武器的部署門檻持續降低,台海情勢的任何風吹草動,都可能在人類反應之前,由演算法先行回應。
兩種「AI價值觀」的碰撞
這場衝突還有另一個維度,對中文讀者尤其值得深思。
美國政府一再強調,AI應當「反映美國的價值觀」。但Knight反問:那些價值觀,具體是什麼?是由總統決定,還是由科技公司CEO決定?Anthropic為Claude制定了「憲法」,Elon Musk為xAI標榜「反覺醒」立場。每一個AI,都內建了某種世界觀。
有趣的是,Knight觀察到:「如果你比較任何一個模型——中國的或美國的——它們關於什麼該做、什麼不該做的判斷,其實相當相似。」這意味著,在技術層面,AI的「道德底線」可能比政治修辭更具普遍性。
但這個觀察,同時也引出一個更深的問題:當中美兩國都在開發軍事AI,都聲稱自己的系統「反映本國價值觀」,這兩套系統在衝突情境中相遇,會發生什麼?
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic執行長阿莫代伊與五角大廈的衝突,揭示了一個深層結構性問題:技術創造者從未真正掌控過自己發明的使用方式。核武時代如此,AI時代亦然。
數學之美是客觀存在的真理,還是人類大腦製造的主觀幻覺?在AI能自動生成數學證明的今天,這個古老的哲學問題正在變得無比迫切。
從一場大腸鏡檢查引發的哲學震撼,到人工心臟、腦機介面、奈米機器人——生物科技正在重塑人類對自我、身體與意識的根本理解。
AI公司Anthropic拒絕美國國防部合約,堅持不讓技術用於監控民眾。這場原則與利益的較量,對全球AI產業意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论