讓AI褪去「機器感」:Anthropic Claude Code Humanizer 運用維基百科準則反偵測
起業家 Siqi Chen 發布 Anthropic Claude Code Humanizer 插件,運用維基百科的 AI 寫作特徵清單,教導 Claude 規避 24 種常見的機器語法。這項工具在 GitHub 獲得超過 1,600 顆星標,挑戰了目前的 AI 偵測技術極限。
原本是用來捉拿 AI 的「黑名單」,如今卻成了 AI 偽裝成真人的「教科書」。科技企業家Siqi Chen近日發布了一款名為 Anthropic Claude Code Humanizer 的開源插件,在 GitHub 上迅速斬獲超過 1,600 顆星標,引發內容創作者與 AI 倫理學家的熱烈討論。
借力打力:以維基百科準則打造 Anthropic Claude Code Humanizer
該工具的核心邏輯源自於「WikiProject AI Cleanup」——一個由維基百科編輯組成的志願團隊。該小組自 2023 年末開始追蹤 AI 生成內容,並於 2025 年 8 月正式發布了一份清單,列舉了 AI 常用的 24 種寫作模式,如「堪稱里程碑」、「展現了...的承諾」等過度修飾的語句。Humanizer 插件將這些偵測特徵轉化為指令,要求 Claude 主動規避這些「機器味」十足的用語。
| 修改前 (典型 AI 風格) | 修改後 (Humanizer 優化) |
|---|---|
| ...正式成立,標誌著區域統計演進的關鍵時刻。 | ...正式成立,負責收集並發布區域統計數據。 |
| 這座城鎮坐落於如畫般的風景中。 | 這座城鎮位於山區。 |
偵測失效?AI 與人類寫作的界限日益模糊
儘管 Humanizer 能讓文字聽起來更隨性、更有主見,但也帶來了潛在風險。由於它鼓勵 AI 「表達觀點」而非單純報導事實,這在撰寫技術文件或學術報告時可能導致精確度下降。然而,這也揭示了 AI 偵測技術的軟肋:目前的偵測器存在約 10% 的偽陽性率(將真人寫作誤判為 AI),這足以讓許多高品質的內容在過度審查中被錯殺。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Siqi Chen 發布 Claude Code Humanizer 插件 2026,利用維基百科 AI 獵捕小組的數據,教導 AI 避開 24 種機器寫作特徵。GitHub 熱度突飛猛進,引發內容真實性憂慮。
Kilo Code 推出 Slack 整合功能,讓軟體工程師無需 IDE 即可修復 Bug。深入解析 Kilo Code Slack integration 2026 如何透過跨 Repo 支援與 MiniMax 模型挑戰 Cursor 與 Claude Code。
維基媒體基金會宣布與微軟、Meta、亞馬遜等公司達成維基百科 AI 訓練授權協議。透過提供付費 API 接取 6,500 萬篇文章,確保 AI 模型獲得高品質數據並支持基金會的可持續運作。
微軟與 Meta 已與維基媒體基金會簽署協議,獲取維基百科數據以訓練 AI 模型。這場合作凸顯了高品質數據在 AI 競賽中的核心地位。PRISM 深度解析數據授權背後的產業變局。