Liabooks Home|PRISM News
展示 AI 指令轉化為擬人化文字的數位藝術圖
TechAI分析

維基百科防線失守?Claude Code Humanizer 插件 2026 讓 AI 寫作難辨真假

2分钟阅读Source

Siqi Chen 發布 Claude Code Humanizer 插件 2026,利用維基百科 AI 獵捕小組的數據,教導 AI 避開 24 種機器寫作特徵。GitHub 熱度突飛猛進,引發內容真實性憂慮。

誰能想到,原本用來獵捕 AI 內容的「維基百科清單」,竟成了 AI 掩人耳目的最強武裝。科技企業家 Siqi Chen 近日發布了一款針對 Anthropic 旗下 Claude Code 助手開發的開源外掛「Humanizer」,旨在指導 AI 模型停止以「機器人語氣」寫作,實現真正的翻天覆地。

Claude Code Humanizer 插件 2026:以子之矛攻子之盾

這款插件的核心邏輯極具諷刺意味。它直接引用了由維基百科編輯小組「WikiProject AI Cleanup」所整理的數據。該小組自 2023 年底以來,一直致力於揪出 AI 生成的條目,並在 2025 年 8 月發布了一份包含 24 種常見 AI 寫作特徵的清單。然而,Humanizer 卻將這份清單轉化為指令,明確告知 LLM(大型語言模型)避開這些被視為「機器感」的用詞與格式。

維基百科去整理這些『AI 寫作跡象』的詳細清單真的很方便,方便到你只需要告訴你的模型……不要那樣做就好。

Siqi Chen 於 X 平台發文

GitHub 獲千星支持,內容真實性面臨挑戰

截至本週一,該項目在 GitHub 上已斬獲超過 1,600 顆星。雖然維基百科志願者已標記了超過 500 篇可疑文章,但隨著這種「反偵測」技術的普及,AI 與人類創作的界線將變得更加模糊。這場短兵相接的技術博弈,正讓網路內容的真實性驗證變得難上加難。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

相关文章