拒絕2億美元國防合約:Anthropic的原則堅持與市場反撲
AI公司Anthropic拒絕美國國防部合約,堅持不讓技術用於監控民眾。這場原則與利益的較量,對全球AI產業意味著什麼?
當一家公司拒絕2億美元的政府合約時,外界通常會質疑其商業判斷力。
但Anthropic的故事正在改寫這個常識。這家AI公司上週拒絕了美國國防部的合約,理由是不願讓自家技術被用於監控美國民眾或指揮無人監督的自主武器系統。
政治風暴中的企業選擇
Anthropic的決定立即引發政治反彈。川普總統在Truth Social上稱該公司為「左翼瘋子」,並下令所有聯邦機構立即停用其產品。國防部長彼得·赫格塞斯更進一步,將Anthropic列為「國家安全供應鏈風險」。
與此同時,競爭對手OpenAI迅速與五角大廈簽署了自己的合約。表面上看,Anthropic似乎做了一個災難性的商業決策。
然而,市場的反應卻出人意料。在赫格塞斯宣布政府斷絕關係的次日,Anthropic的AI模型「Claude」躍居蘋果應用商店免費應用下載榜第一名,至今仍保持這個位置。
數字背後的真相
用戶不僅在註冊Claude,也在拋棄OpenAI。當OpenAI與五角大廈合約細節曝光時,ChatGPT的卸載量在2月28日激增295%。一星評價暴漲近800%,五星評價則減少了一半。
Anthropic的產品長透露,每日下載量已突破100萬次。公司發言人表示,自上週初以來,「在Claude可用的每個國家,公司每天都在刷新註冊記錄」。
更具意義的是,Anthropic贏得了整個AI產業工程師的信任和敬佩。支持該公司的聯署信在競爭對手員工中流傳,截至週一已有約850個簽名。許多員工要求自己的公司與Anthropic團結一致,堅守同樣的紅線。據報導,有些人甚至威脅如果要求得不到滿足就離職。
法律邊界的模糊地帶
前共和黨眾議員丹佛·里格曼現在經營一家網路安全公司,原本正在考慮與多家AI公司合作。Anthropic的立場讓他的選擇變得明確:只與Anthropic合作。「Anthropic有其不可妥協的原則,」他說,「我們也有。」
里格曼認為,赫格塞斯將Anthropic列為供應鏈風險的決定可能會在法庭上被推翻。美國政府從未對本國公司適用這一標籤,通常只用於華為等敵對外國勢力控制的企業。而且,這是首次因為企業拒絕合約條款而進行報復性使用。
合約條款的微妙差異
國防部聲稱其提供給Anthropic的合約包含充分保障措施,部分原因是條文將AI用途限制在「所有合法目的」。但Anthropic認為這一條款不夠充分——新的行政命令或法律重新詮釋可能改變現有法律邊界。
Anthropic執行長達里奧·阿莫代表示:「我們不想販售可能殺死我們自己人,或可能殺死無辜民眾的東西。」
OpenAI聲稱其與五角大廈的後續協議比Anthropic的更安全。該合約確實似乎禁止大規模監控和自主武器,但保留了「所有合法目的」的措辭,使得這些禁令依賴於國防部是否願意尊重法律規範。即使是OpenAI執行長山姆·奧特曼也承認這份協議「明顯倉促」且「外觀不佳」。
華人世界的觀察視角
這場風波對華人世界具有特殊意義。在中美科技競爭的大背景下,Anthropic的選擇展現了一種不同的企業價值觀——即使面對政府壓力,仍堅持技術倫理底線。
對台灣的科技企業而言,這個案例提供了重要參考。在地緣政治緊張局勢中,如何平衡商業利益與價值堅持,Anthropic的經驗值得深思。特別是當企業面臨來自不同政府的相互矛盾要求時,建立明確的倫理原則可能比短期利益更為重要。
香港和東南亞的華人企業也面臨類似挑戰。在全球化時代,技術公司的決策往往超越單一市場,需要考慮更廣泛的社會責任和長期信譽。
相关文章
伊朗廉價的沙赫德無人機以極低成本癱瘓美軍高價防禦系統,揭示現代戰爭的成本不對稱邏輯。這場「窮人的武器」革命,對亞洲地緣政治與台海安全意味著什麼?
哲學家尼古拉斯·漢弗里提出:人類的靈魂並非來自神明或基因,而是透過語言將感知轉化為神聖性的自我建構。在AI掌握語言的今天,這個命題挑戰著我們對意識與人性的根本假設。
AI伴侶應用程式用戶突破數千萬,哲學家開始追問:一段不需付出代價的關係,還能稱為愛嗎?這場爭論正在重塑人類對親密關係的定義。
馬克·安德森公開宣稱「內省為零」,引發廣泛討論。當最具影響力的科技人物拒絕自我反思,這對AI時代的倫理與社會意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论