Liabooks Home|PRISM News
AI決定了什麼?誰才是真正的「扣板機者」
CultureAI分析

AI決定了什麼?誰才是真正的「扣板機者」

4分钟阅读Source

美軍在攻擊伊朗行動中,借助Claude與Maven系統在24小時內鎖定1,000個目標。軍事AI的真實樣貌、歷史脈絡與人類判斷的不可或缺性,值得深思。

24小時,1,000個目標。這個數字,單靠人類是做不到的。

據《華盛頓郵報》報導,美軍在對伊朗的攻擊行動中,結合了Anthropic公司的AI工具「Claude」與Palantir公司的「Maven Smart System」,實現了即時目標識別與優先排序。同樣的系統也被用於委內瑞拉的作戰行動。這則報導,讓軍事AI的討論從理論層面,一躍成為迫切的現實問題。

AI「選擇」了目標——但真的是這樣嗎

在深入討論之前,必須先釐清一個根本性的誤解。

軍事AI並非科幻電影裡那種「自主殺戮機器」。現實中的軍事AI分為兩大類:自律型武器(能自行選擇並攻擊目標)與決策支援系統(輔助人類判斷的軟體)。Claude屬於後者——它整合衛星影像與多源情報資料,協助軍事規劃人員篩選目標、排定優先順序,扮演的是「高階參謀助理」的角色,而非「決策者」。

以色列加薩衝突中使用的「Lavender」與「Gospel」系統,同樣屬於決策支援系統。AI提供分析與建議,最終拍板的仍是人類。曾任美國海軍情報官員、現於喬治亞理工學院研究戰略技術的喬恩·R·林賽(Jon R. Lindsay)指出:「AI提升的是預測能力——從現有資料生成新資料。但預測只是決策的一部分。決定預測什麼、如何運用預測結果,依然是人的責任。」

不是「突然出現」——是數十年積累的成果

Claude問世不過數年,但美軍能在戰場上駕馭它的能力,源於數十年的技術、組織與人才投資

這段歷史比多數人想像的更長。1950年代,美國透過防空系統「SAGE」的研發,推動了電腦記憶體與人機介面的創新。越戰期間,「Igloo White」系統集中處理情報資料,協調對北越補給線的空襲。1980年代DARPA的戰略計算計畫加速了半導體與專家系統的發展——事實上,正是國防資金奠定了今日AI產業的基礎。

PRISM

廣告合作

[email protected]

自律型武器的歷史同樣悠久:19世紀的接觸式水雷、二戰德國的V-1飛彈、現代的愛國者防空系統與鐵穹,都是這條脈絡的延伸。無人機在21世紀的戰爭中全面普及,烏克蘭戰場上第一人稱視角(FPV)無人機作為神風式武器的創新運用,更將這場自動化革命推向新的階段。

技術之外,組織才是關鍵

一個核心問題:為什麼同樣的技術,有些組織用得出色,有些卻一敗塗地?

林賽指出,「數位系統的上限,取決於使用它的組織」。AI能提升效率,但同樣會放大組織原有的偏見。歷史上的教訓不乏其數:Igloo White屢屢被越軍的誘餌欺騙;1988年,美國神盾巡洋艦誤擊伊朗民航客機,造成290人罹難;1999年,美軍匿蹤轟炸機誤炸貝爾格萊德中國大使館。

而在此次伊朗攻擊行動中,一枚戰斧巡弋飛彈疑似擊中伊朗海軍基地附近的一所女子學校,造成約175人死亡,死者多為學生。這可能是美軍情報失誤所致。

關於加薩衝突中大量平民傷亡的問題,外界傾向將矛頭指向Lavender系統的「自動化偏誤」。但林賽認為,以色列寬鬆的交戰規則,其影響可能遠大於AI的自動化偏誤本身。技術不是唯一的被告,使用技術的人與制度才是核心。

對華人世界意味著什麼

這場討論對華人世界而言,具有多重層次的意義。

首先是地緣政治層面。美軍在伊朗與委內瑞拉展示的AI輔助打擊能力,直接影響中美之間的戰略計算。解放軍同樣在積極發展AI輔助的指揮控制系統,這場軍備競賽的走向,將深刻影響台灣海峽南海等地區的安全格局。

其次是科技產業層面AnthropicClaude的開發者)與PalantirMaven的提供者)的軍事合約,引發了科技企業「是否應為戰爭服務」的倫理辯論。這個問題同樣擺在華人科技企業面前——當政府的安全需求與企業的全球市場形象發生衝突時,如何取捨?

第三是規範層面。目前,針對AI輔助軍事行動的國際法規範幾乎是空白地帶。誰來定義「人類有效控制」的邊界?當AI加速了決策週期,傳統的戰爭法框架是否仍然適用?這些問題,需要包括中國在內的所有大國共同面對。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]