Anthropic 強力封鎖 Claude Code 規避行為:xAI 與第三方開發工具首當其衝
Anthropic 宣布實施技術防護措施,封鎖偽裝 Claude Code 的第三方應用,並禁止 xAI 等競合對手利用其模型。這場 AI 資源保衛戰將深遠影響開發者生態。
AI 產業的資源爭奪戰已進入短兵相接的新階段。Anthropic近日證實,已針對官方開發工具 Claude Code 實施嚴格的技術防護,旨在阻止第三方應用程式透過偽裝身分來獲取更廉價的 AI 資源。此舉直接導致熱門開源軟體 OpenCode 的用戶面臨服務中斷。
Anthropic Claude Code 封鎖引發開發者社群熱議
這次技術干預的核心在於處理「封裝軟體(Harness)」問題。許多第三方工具如 OpenCode 會偽裝成官方 CLI 的請求標頭,讓伺服器誤以為是來自官方管道。這樣一來,用戶只需支付每月 200 美元 的個人訂閱費用,就能執行價值超過 1,000 美元 的高強度 API 工作負載,形成了一種變相的「技術套利」。
嚴格執行服務條款:xAI 與 OpenAI 接連遭禁
除了打擊規避行為,Anthropic 同步加強了對競爭對手的限制。由馬斯克創立的 xAI 研發團隊被爆出因使用 Cursor IDE 存取 Claude 模型進行競爭性研發,而遭到全面停權。這符合公司服務條款中禁止「使用服務訓練競爭模型」的嚴格規定。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic因拒絕讓AI用於大規模監控與自主武器,遭美國防部列為供應鏈風險。公司提告反擊,這場官司將重塑AI企業與政府的關係。
AI公司Anthropic就美國防部「供應鏈風險」認定提起聯邦訴訟,引發AI軍事應用與企業自主權的根本爭議,對全球AI治理格局影響深遠。
Anthropic與美國防部談判破裂,OpenAI迅速接手卻引發用戶大規模解除安裝。這場風波揭示了AI企業與政府合作的深層矛盾,對亞洲科技生態系又意味著什麼?
美國防部將AI公司Anthropic列為安全風險,但Microsoft、Google、AWS確認將繼續為客戶提供Claude服務。這場科技倫理與國家安全的角力,對全球AI產業意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论