OpenAI進軍戰場:當AI開始決定攻擊目標
OpenAI與美國五角大廈簽署機密環境AI使用協議,生成式AI首次被用於伊朗軍事行動的目標優先排序。這對中美科技競爭與亞洲地緣政治意味著什麼?
一家曾宣稱「絕不製造傷害人類系統」的公司,如今正在幫助美軍決定先炸哪裡。
協議的真相:承諾有多少份量
2026年2月底,OpenAI與美國國防部(五角大廈)達成協議,允許在機密環境中使用其AI技術。距今不過兩週多,外界對協議內容的疑問仍未消散。
Sam Altman表示,軍方不得使用其技術開發自主武器,但協議的實際約束力極為有限——軍方只需遵循自己制定的準則,而那些準則本身已相當寬鬆。至於「不得用於國內監控」的承諾,同樣缺乏可信的執行機制。
OpenAI為何急速轉向?一個解釋是商業壓力:AI訓練成本龐大,公司正積極尋找包括廣告在內的新收入來源。另一個解釋是Altman反覆強調的意識形態框架——民主國家的軍隊必須掌握最強大的AI,才能在與中國的競爭中不落下風。這兩種動機或許並不互相排斥。
在伊朗戰場上,AI究竟做什麼
據防務官員透露,實際應用場景大致如下:人類分析師將潛在攻擊目標清單輸入AI模型,要求其分析並排列優先順序;模型可整合文字、圖像、影片等多種情報來源,並考量兵力部署、物資位置等後勤資訊。
官方強調,人類將負責核查AI的輸出結果。但這裡存在一個根本矛盾:若人類真的逐一核查,AI究竟加速了多少決策流程?
美軍長期使用名為Maven的AI系統,可自動分析無人機影像、識別潛在目標。OpenAI的模型預計將在此基礎上增加對話介面,讓操作人員以自然語言詢問情報解讀或目標建議。生成式AI直接介入現場行動決策,伊朗是第一次真正的實戰測試。
無人機防禦方面,OpenAI於2024年底宣布與無人機及反無人機技術商Anduril合作,協助識別並攔截來襲無人機。公司解釋稱,由於目標是無人機而非人類,不違反自身政策。Anduril上週剛獲得美國陸軍200億美元(約新台幣6,500億元)的大型合約,其戰場管理平台Lattice有望快速整合OpenAI模型。
在行政後勤端,GenAI.mil平台已允許數百萬軍事行政人員使用商業AI處理合約、採購、政策文件等工作。OpenAI於2026年2月正式加入該平台。
這場競爭,華人世界如何解讀
從中美競爭的角度看,這個局面充滿張力。
Altman的敘事框架——「民主國家必須在AI上領先中國」——直接將OpenAI的軍事化定位為地緣政治博弈的一環。這一框架在華盛頓具有強大的說服力,也意味著AI軍備競賽的邏輯已被主流接受。對北京而言,這既是壓力,也可能成為加速自身軍事AI發展的理由。
對台灣、香港及東南亞的華人社群而言,問題更為切身:當美國的AI系統深度嵌入軍事決策鏈,亞太地區的安全格局將如何演變?一旦AI輔助的攻擊決策出現誤判,其後果將由誰承擔?
值得關注的是Anthropic的遭遇。這家公司因拒絕讓AI用於「任何合法軍事用途」,被川普政府命令停止在軍中使用,並被五角大廈列為「供應鏈風險」。Anthropic目前正在法庭上提出異議。這一案例清楚表明:在當前政治環境下,拒絕軍事合作本身就是一種高風險選擇。
誰在設定規則,誰在承擔後果
這場轉變揭示了一個更深層的結構性問題:當科技公司成為軍事AI的核心供應商,原本由國際法、戰爭倫理學者和各國政府討論的規範問題,開始由矽谷的商業決策來決定邊界。
OpenAI的員工中,已有人公開表達不滿。歷史上,Google員工曾因Maven計畫的倫理爭議迫使公司退出合約。但這一次,企業的商業壓力與政治環境的變化,似乎共同壓縮了內部反對的空間。
對亞洲各國政府和企業而言,這也是一個實際的治理問題:當採購的商業AI工具被整合進軍事系統,使用方如何確保技術邊界不被逐步侵蝕?
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
大英百科全書與韋氏辭典控告OpenAI未經授權使用其著作訓練AI,並指GPT-4能逐字輸出其內容。這場訴訟將如何重塑AI產業的遊戲規則?對華人世界意味著什麼?
2025年底至2026年初,無程式碼AI代理工具大量湧現,自主AI進入企業核心流程。當機器開始自主決策,誰來負責?亞洲企業又該如何因應這場治理危機?
印度最大數位支付平台PhonePe以中東局勢惡化為由暫停IPO計畫,目標市值從150億美元下修至90億美元的討論揭示新興市場金融科技面臨的深層挑戰。
OpenAI即將為ChatGPT推出成人內容功能,初期僅限文字。誰來定義AI生成內容的邊界?這對亞洲市場與華人世界意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论