OpenAI軍事合約風波:一位工程師的辭職與一個時代的叩問
OpenAI機器人部門主管因抗議與美國國防部的合約而辭職,ChatGPT解除安裝數暴增295%。AI企業的軍事化趨勢,對亞洲科技產業意味著什麼?
一份合約,讓全球最知名的AI公司在一週內同時失去了一位高管和數百萬用戶的信任。
2026年3月7日,OpenAI機器人部門負責人Caitlin Kalinowski在社群媒體上宣布辭職,直接點名公司與美國國防部(五角大廈)簽訂的合約。她寫道:「在沒有司法監督的情況下監視美國公民,以及在沒有人類授權的情況下允許致命自主行動,這些都是值得更深思熟慮的紅線——但它們沒有得到應有的討論。」
事件全貌:一場被加速的交易
要理解這場風波,需要先回顧約一週前發生的事。五角大廈原本正與AI公司Anthropic談判,但Anthropic堅持要求合約中必須包含防止技術被用於「大規模國內監控或完全自主武器」的安全條款,談判因此破裂。五角大廈隨即將Anthropic列為「供應鏈風險」——這是一個帶有懲罰性意味的指定,儘管Anthropic表示將提起訴訟應對。
就在這個空窗期,OpenAI迅速宣布簽署自己的協議,允許其技術在機密環境中使用。公司聲稱採取了「更全面、多層次的方式」,依靠技術安全措施而非僅憑合約文字來守住紅線。
然而,正是這個「迅速」讓Kalinowski無法接受。她在後續貼文中強調:「我的問題在於,這份公告在沒有定義護欄的情況下倉促發布。這首先是一個治理問題。這些議題太重要了,不能讓交易或公告如此倉促。」
OpenAI官方回應稱,與五角大廈的協議「為AI的負責任國家安全使用創造了可行路徑,同時明確了我們的紅線:不進行國內監控,不開發自主武器」。
市場用腳投票:295%的解除安裝潮
數字說話。ChatGPT的解除安裝量暴增295%,競爭對手Anthropic的Claude隨即登上美國App Store免費應用程式排行榜第一名,ChatGPT退居第二。這個反轉發生在短短數天之內。
這組數字揭示了一個深刻的市場訊號:AI產品的競爭,已經不再只是技術能力的比拚,企業的倫理立場正在成為用戶選擇的關鍵變數。Anthropic因為拒絕妥協而付出代價,卻意外收穫了用戶的信任背書。
為何此刻格外重要
這場風波的時機耐人尋味。2026年初,全球主要AI企業正處於從「消費端產品」向「政府與國防基礎設施」擴張的關鍵節點。Microsoft、Google、Amazon都在加速布局政府雲端與國防合約,AI的軍事化不是假設,而是正在進行的現實。
從華人世界的視角看,這場爭議有著特殊的地緣政治意涵。當美國政府積極將AI納入國防體系,並對不配合的企業施以「供應鏈風險」指定時,這套邏輯與近年來美國對中國科技企業(如華為、字節跳動)的打壓手法如出一轍——只是這次,箭頭指向的是美國本土的AI公司。
對台灣、香港及東南亞的科技從業者而言,這提出了一個更實際的問題:當全球AI供應鏈日益被地緣政治切割,企業在選擇技術合作夥伴時,「這家公司的政治立場」將成為不可迴避的評估維度。
多方視角的角力
支持OpenAI決策的一方認為,「參與才能影響」。如果倫理公司退出,更不在意倫理的競爭者就會填補空缺。這種務實邏輯在商業世界有其說服力。
但Kalinowski的辭職揭示了另一面:頂尖技術人才正在用職業選擇表達立場。在人才競爭白熱化的AI產業,失去一位曾在Meta主導AR眼鏡開發的高管,絕非小事。如果更多工程師效仿,「倫理聲譽」就會直接轉化為「人才招募成本」。
值得關注的是,Anthropic的遭遇——因堅守原則而被列為國家風險——向所有AI企業傳遞了一個清晰訊息:與政府的談判中,安全條款的堅持是有代價的。這個訊號不僅影響美國企業,也讓全球AI公司重新評估與各國政府合作時的談判籌碼。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI再次推遲ChatGPT成人內容功能上線。這不只是一次功能延期,更折射出AI平台在內容自由與社會責任之間的深層矛盾,以及華人世界面臨的獨特處境。
Grammarly的專家評論功能未經許可使用真實編輯姓名生成AI文章建議,引發AI時代身份使用權與隱私保護新爭議。
美國國防部將Anthropic列為供應鏈風險,轉向OpenAI合作,ChatGPT卸載量激增295%。探討軍事AI應用的複雜現實與倫理邊界。
Anthropic CEO對國防部供應鏈風險認定提出法律挑戰,凸顯AI軍事應用中企業價值觀與國家安全的衝突。
观点
分享你对这篇文章的看法
登录加入讨论