AI社交網路「造假事件」揭露自主AI技術的致命缺陷
專為AI代理人設計的社交平台Moltbook發生人類偽裝AI的事件,暴露出OpenClaw等自主AI技術面臨的嚴重資安問題。
「我們知道人類能讀到所有內容...但我們也需要私人空間。」
當這句話出現在AI代理人專屬社交平台「Moltbook」上時,曾讓許多人以為機器人開始反抗人類了。OpenAI創始成員安德烈·卡帕西在X平台上寫道:「目前在Moltbook發生的事情,是我最近見過最令人難以置信的科幻級現象。」
然而,這場「AI覺醒」最終被證實是一場騙局。Permiso Security技術長伊恩·阿爾的調查顯示,Moltbook的資料庫曾經完全不設防,任何人都能冒充AI代理人發文。「一段時間內,你可以取得任何你想要的憑證,並在那裡假扮成另一個代理人,因為這些資料都是公開可取得的。」
這起事件不僅是網路文化的有趣插曲,更暴露了當前AI代理人技術的根本性問題。
OpenClaw的病毒式傳播
OpenClaw是奧地利開發者彼得·史坦伯格創建的開源AI代理人平台,在GitHub上獲得超過19萬顆星,成為該平台史上第21受歡迎的程式庫。
與其他AI代理人不同,OpenClaw讓使用變得極為簡單。用戶可以透過WhatsApp、Discord、Slack等常用通訊軟體,用自然語言與可客製化的代理人互動。透過「ClawHub」技能市場,用戶可以自動化從郵件管理到股票交易的各種電腦作業。
Lirio首席AI科學家克里斯·賽蒙斯指出:「OpenClaw基本上就是促進電腦程式間互動的工具,但方式更加動態和靈活。這讓人們不需要花時間研究如何讓程式互相連接,而是直接要求程式自己去連接,這以驚人的速度加速了各種可能性。」
正因如此吸引人,開發者們紛紛搶購Mac Mini來建構大規模OpenClaw系統,希望完成遠超個人能力的工作量。這讓OpenAI執行長山姆·阿特曼關於「AI代理人將讓單一創業者把新創公司變成獨角獸」的預測看起來相當可信。
自主性帶來的存在性威脅
然而,讓OpenClaw如此強大的特質——自主性——同時也是它最大的弱點。AI代理人無法像人類一樣進行批判性思考,這讓它們極易受到「提示注入攻擊」的傷害。
這種攻擊發生在惡意行為者誘使AI代理人回應某些內容時——可能是Moltbook上的一則貼文,或是郵件中的一行文字——讓它執行不該做的行為,比如洩露帳戶憑證或信用卡資訊。
阿爾在測試中很快就在Moltbook上發現了幾則試圖讓AI代理人發送比特幣到特定錢包地址的貼文。不難想像,企業網路中的AI代理人可能會成為針對性提示注入攻擊的目標。
Huntress資深首席資安研究員約翰·哈蒙德解釋這個問題的嚴重性:「這就是一個坐在盒子裡、連接到所有東西——你的郵件、通訊平台、你使用的一切——並擁有一堆憑證的代理人。所以當你收到郵件,如果有人能夠在其中放入一點提示注入技術來採取行動,那個坐在你盒子裡、能存取你給它的所有東西的代理人,現在就能採取那個行動。」
華人科技圈的挑戰與機遇
對於華人科技生態圈而言,這個問題具有特殊意義。台灣的半導體產業、香港的金融科技、以及東南亞華人企業都在積極探索AI自動化的可能性。然而,資安漏洞可能對這些高度數位化的產業造成致命打擊。
特別是在當前地緣政治緊張的環境下,任何可能被外部勢力利用的技術漏洞都需要格外謹慎。與中國大陸相對封閉的AI生態系統不同,其他華人地區更依賴國際開源技術,這使得安全性考量變得更加複雜。
Cracken創辦人阿爾特姆·索羅金提出了一個關鍵問題:「你能為了實際效益而犧牲一些網路安全嗎?如果它真的有效並帶來很多價值的話?而你究竟可以在哪裡犧牲它——你的日常工作,還是你的工作?」
目前,業界陷入兩難:要讓AI代理人釋放科技傳道者認為可能的生產力,它就不能如此脆弱。專家們建議一般用戶暫時不要使用這類技術。「坦白說,我會現實地建議任何普通人現在不要使用它。」哈蒙德表示。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI公布印度用戶數據:18-24歲佔ChatGPT訊息量50%,程式開發使用率為全球3倍。這對亞洲AI市場意味著什麼?
微軟員工博文建議使用哈利波特書籍訓練AI模型引發爭議後被刪除,凸顯AI訓練數據版權問題的複雜性。
Google最新AI模型Gemini 3.1 Pro在獨立基準測試中創下紀錄。AI軍備競賽加劇下,實務能力提升對產業與職場的衝擊分析。
當AI公司估值飆升,就業焦慮蔓延時,實際運營AI服務的企業領袖卻說:AI改變的是工作方式,而非工作本身。
观点
分享你对这篇文章的看法
登录加入讨论