拒絕2億美元國防合約:Anthropic的原則堅持與市場反撲
AI公司Anthropic拒絕美國國防部合約,堅持不讓技術用於監控民眾。這場原則與利益的較量,對全球AI產業意味著什麼?
當一家公司拒絕2億美元的政府合約時,外界通常會質疑其商業判斷力。
但Anthropic的故事正在改寫這個常識。這家AI公司上週拒絕了美國國防部的合約,理由是不願讓自家技術被用於監控美國民眾或指揮無人監督的自主武器系統。
政治風暴中的企業選擇
Anthropic的決定立即引發政治反彈。川普總統在Truth Social上稱該公司為「左翼瘋子」,並下令所有聯邦機構立即停用其產品。國防部長彼得·赫格塞斯更進一步,將Anthropic列為「國家安全供應鏈風險」。
與此同時,競爭對手OpenAI迅速與五角大廈簽署了自己的合約。表面上看,Anthropic似乎做了一個災難性的商業決策。
然而,市場的反應卻出人意料。在赫格塞斯宣布政府斷絕關係的次日,Anthropic的AI模型「Claude」躍居蘋果應用商店免費應用下載榜第一名,至今仍保持這個位置。
數字背後的真相
用戶不僅在註冊Claude,也在拋棄OpenAI。當OpenAI與五角大廈合約細節曝光時,ChatGPT的卸載量在2月28日激增295%。一星評價暴漲近800%,五星評價則減少了一半。
Anthropic的產品長透露,每日下載量已突破100萬次。公司發言人表示,自上週初以來,「在Claude可用的每個國家,公司每天都在刷新註冊記錄」。
更具意義的是,Anthropic贏得了整個AI產業工程師的信任和敬佩。支持該公司的聯署信在競爭對手員工中流傳,截至週一已有約850個簽名。許多員工要求自己的公司與Anthropic團結一致,堅守同樣的紅線。據報導,有些人甚至威脅如果要求得不到滿足就離職。
法律邊界的模糊地帶
前共和黨眾議員丹佛·里格曼現在經營一家網路安全公司,原本正在考慮與多家AI公司合作。Anthropic的立場讓他的選擇變得明確:只與Anthropic合作。「Anthropic有其不可妥協的原則,」他說,「我們也有。」
里格曼認為,赫格塞斯將Anthropic列為供應鏈風險的決定可能會在法庭上被推翻。美國政府從未對本國公司適用這一標籤,通常只用於華為等敵對外國勢力控制的企業。而且,這是首次因為企業拒絕合約條款而進行報復性使用。
合約條款的微妙差異
國防部聲稱其提供給Anthropic的合約包含充分保障措施,部分原因是條文將AI用途限制在「所有合法目的」。但Anthropic認為這一條款不夠充分——新的行政命令或法律重新詮釋可能改變現有法律邊界。
Anthropic執行長達里奧·阿莫代表示:「我們不想販售可能殺死我們自己人,或可能殺死無辜民眾的東西。」
OpenAI聲稱其與五角大廈的後續協議比Anthropic的更安全。該合約確實似乎禁止大規模監控和自主武器,但保留了「所有合法目的」的措辭,使得這些禁令依賴於國防部是否願意尊重法律規範。即使是OpenAI執行長山姆·奧特曼也承認這份協議「明顯倉促」且「外觀不佳」。
華人世界的觀察視角
這場風波對華人世界具有特殊意義。在中美科技競爭的大背景下,Anthropic的選擇展現了一種不同的企業價值觀——即使面對政府壓力,仍堅持技術倫理底線。
對台灣的科技企業而言,這個案例提供了重要參考。在地緣政治緊張局勢中,如何平衡商業利益與價值堅持,Anthropic的經驗值得深思。特別是當企業面臨來自不同政府的相互矛盾要求時,建立明確的倫理原則可能比短期利益更為重要。
香港和東南亞的華人企業也面臨類似挑戰。在全球化時代,技術公司的決策往往超越單一市場,需要考慮更廣泛的社會責任和長期信譽。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI與美國國防部簽署合約引發爭議,承諾不進行大規模監控,但法律專家質疑條款存在漏洞,AI倫理界線究竟在哪?
Anthropic與美國國防部合約談判破局,揭示AI軍事應用的倫理界限。這場拉鋸戰反映了科技公司在國家安全與道德責任間的艱難抉擇。
美國防部要求Anthropic移除AI限制遭拒,威脅動用國防生產法。這場對峙將如何重塑全球AI治理格局?
AI行銷技術正被用於軍事策略,透過個人化內容操控民眾戰爭觀。探討華人世界面臨的資訊環境挑戰與民主自主性問題。
观点
分享你对这篇文章的看法
登录加入讨论