Liabooks Home|PRISM News
Anthropic的AI安全工具,在發布當天就被破解了
科技AI分析

Anthropic的AI安全工具,在發布當天就被破解了

4分钟阅读Source

Anthropic專為企業安全設計的AI工具Mythos,在公開發布當日遭不明人士透過第三方廠商取得存取權限。這起事件揭示了AI供應鏈管理的根本性漏洞。

一個被設計來保護企業免受駭客攻擊的AI工具,在發布的同一天,就被一群陌生人悄悄拿到手了。

事件始末

Anthropic是與OpenAI並列全球頂尖的AI公司之一。2026年4月,該公司發布了一款名為「Claude Mythos」的企業級網路安全AI工具。這款工具的定位是協助企業強化資安防護,但Anthropic自己也坦承:一旦落入不當之人手中,它同樣可以成為攻擊企業的利器。

正因如此,Anthropic採取了嚴格的限制發布策略,將Mythos納入名為「Project Glasswing」的計畫,僅向包括Apple在內的少數受信任廠商開放。這個決策背後的邏輯很清楚:縮小接觸面,降低被濫用的風險。

然而,根據Bloomberg的報導,一個透過Discord頻道聯繫的非公開網路論壇成員,在Mythos公開發布的當天,就已成功取得未授權的存取權限。他們的方法並不複雜——透過一名在Anthropic合作廠商任職的人士所擁有的存取憑證,再結合對Anthropic過去模型URL格式規律的了解,推測出Mythos在網路上的位置。

Anthropic發言人向TechCrunch確認:「我們正在調查一份聲稱透過第三方廠商環境未授權存取Claude Mythos Preview的報告。」目前,該公司表示尚未發現其核心系統受到任何影響。

這個群體向Bloomberg提供了截圖與即時示範作為佐證,並聲稱他們的動機只是「想玩玩新模型,不是要搞破壞」。

為什麼這件事值得認真看待

PRISM

廣告合作

[email protected]

動機無害,不代表漏洞無害。這起事件真正的問題,不在於這群人做了什麼,而在於他們能做什麼。

Anthropic選擇限制發布,正是為了防止Mythos被惡意使用。但這個策略的前提,是所有接觸到工具的環節都能維持同等級別的安全控管。現實是,第三方廠商往往是整個供應鏈中安全標準最參差不齊的環節。這不是Anthropic獨有的問題,而是整個AI產業在快速商業化過程中普遍面臨的結構性矛盾。

從更宏觀的角度來看,這個時間點頗具意義。全球各地的政府正在加速制定AI監管框架——歐盟的《AI法》已正式生效,美國、英國、日本也陸續推出相關指引。然而,這些框架大多聚焦於AI模型本身的能力限制,對於「如何確保分發鏈條的安全性」,著墨相對有限。

對於台灣、香港及東南亞的企業科技決策者而言,這起事件提供了一個具體的參照:當你的公司決定採用外部AI工具時,你所信任的,不只是那家AI公司,而是它背後整個生態系的每一個環節。

多方視角

從企業用戶的角度Apple等Project Glasswing的參與者此刻的感受恐怕相當複雜。他們加入這個計畫,部分原因正是基於對Anthropic安全管理能力的信任。如果連限制發布都無法阻止未授權存取,那麼這種信任的基礎是否足夠穩固?

從競爭格局來看GoogleDeepMindMicrosoftAzure AI都在積極布局企業安全AI市場。Anthropic此次的事件,可能會讓部分潛在客戶在選擇時更加謹慎,也可能促使競爭對手加強宣傳自身的安全管控能力。

從華人科技生態的視角,這件事折射出一個更深層的議題:在AI工具快速普及的當下,「安全」已不再只是技術問題,而是供應鏈管理、合約設計、人員稽核的綜合考驗。中國大陸的AI企業如百度阿里雲在向企業提供AI服務時,同樣面臨如何管控第三方廠商風險的挑戰,只是在不同的監管環境下,問責機制與透明度的要求截然不同。

值得注意的是,這起事件目前仍在調查中,Anthropic尚未公布完整的調查結果。在資訊不完整的情況下,過早下結論並不恰當。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]