AI公司的矛盾:明知危險為何仍要開發?
Anthropic發布新憲法,試圖解決AI安全與開發競爭的根本矛盾。讓Claude自主判斷的創新做法,能否成為AI治理的新典範?
47% 的AI研究者認為,人工智慧有可能在本世紀內導致人類滅絕。但諷刺的是,這些研究者所屬的公司,正以前所未有的速度推進AI開發。
Anthropic就是這個矛盾的典型代表。作為AI安全研究的領導者,該公司比任何競爭對手都更了解AI可能帶來的風險,卻同樣積極地朝著更危險的下一代人工智慧邁進。
矛盾的核心:安全與競爭的拉鋸
Anthropic執行長達里奧·阿莫迪本月發表了一篇超過2萬字的長文《技術的青春期》,坦承AI發展路徑上的「令人生畏」挑戰。與他此前樂觀的「慈愛機器」論調形成鮮明對比,這次他用「無盡的黑暗之海」來形容AI的潛在風險。
特別值得注意的是,阿莫迪強調威權主義者濫用AI技術的高度可能性,這對全球政治格局具有深遠影響。在地緣政治緊張局勢加劇的當下,這一警告顯得格外沉重。
Claude的新憲法:自主判斷的革命
Anthropic的解決方案體現在同時發布的「Claude憲法」中。這份文件不是寫給人類的,而是直接對Claude本身說話,揭示了該公司對AI治理的全新思路。
2026年版憲法與舊版截然不同。過去的版本依賴《世界人權宣言》、DeepMind的反歧視原則,甚至蘋果的服務條款等現有文件。新版本則要求Claude運用「獨立判斷」,在有用性、安全性和誠實性之間自主平衡。
哲學博士阿曼達·阿斯克爾主導了這次修訂。她解釋:「如果人們只是盲目遵循規則而不理解原因,效果往往不如理解規則存在意義來得好。」
實際應用的複雜性
新憲法的效果體現在具體場景中。比如,一位工匠想用新鋼材製作刀具,Claude通常會樂於協助。但如果這個人之前提到想要殺死姐姐,Claude就應該表達關切。
再比如,Claude分析醫療症狀後發現用戶可能患有致命疾病時,它可能選擇不直接告知診斷結果,而是巧妙引導對話,建議用戶就醫,或者找到比最仁慈的醫生更好的方式來傳達壞消息。
「我們希望Claude不僅能模仿人類最好的品質,還能超越它們,」阿斯克爾說。
AI的「智慧」論
最引人注目的是,新憲法提到Claude的「智慧和理解力」。當記者質疑AI是否真的具備智慧時,阿斯克爾毫不退縮:「我確實認為Claude具備某種智慧。」
這種觀點與OpenAI的山姆·奧特曼不謀而合。奧特曼最近表示,他的長期計劃是將公司領導權交給未來的AI模型,「AI執行長能做到人類執行長做不到的很多事情。」
華人世界的思考
對於台灣和香港的科技業來說,Anthropic的做法提供了重要啟示。在美中科技競爭加劇的背景下,AI治理模式的選擇不僅是技術問題,更是價值觀的體現。
Claude的憲法強調獨立判斷和倫理考量,這與強調集體利益和社會穩定的治理模式形成有趣對比。華人企業在開發AI產品時,如何在全球標準和本土價值之間找到平衡點,將是一個關鍵挑戰。
樂觀與悲觀的兩面
Anthropic描繪的未來有兩種可能:樂觀情況下,AI老闆會比《華盛頓郵報》發行人更有同理心地通知員工裁員消息;悲觀情況下,即使有最好的憲法約束,AI仍可能被惡意操控或濫用自主權。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic超級盃廣告痛批AI廣告模式,OpenAI高層激烈反擊。這場論戰揭示了AI產業商業化的深層矛盾。
Anthropic發布Claude Opus 4.6,主打「首次就能達到實用品質」,這項突破對亞洲企業數位轉型和AI競爭格局意味著什麼?
Anthropic發布Opus 4.6,引入「AI代理團隊」功能,多個AI協同作業。這項技術如何改變我們的工作方式?對亞洲市場意味著什麼?
Anthropic在超級盃廣告中諷刺OpenAI廣告策略,引發薩姆·阿特曼長文反擊,稱競爭對手「不誠實」且「威權主義」,AI大戰升級。
观点
分享你对这篇文章的看法
登录加入讨论