Wikipedia封殺AI寫作:誰有資格守護人類的知識?
Wikipedia以40比2的壓倒性票數,禁止編輯者使用AI生成文章內容。這個決定不只是一條平台規則,更是一場關於「知識可信度」的根本辯論。
當全球最大的免費百科全書決定對AI說「不」,這個訊號究竟在告訴我們什麼?
2026年3月,Wikipedia以40比2的壓倒性票數,正式通過禁止編輯者使用AI生成或改寫文章內容的新政策。這不是一個悄悄修改的技術條款,而是由數千名志願編輯者共同投票決定的集體意志。
新政策的邊界在哪裡
新政策的核心條文明確指出:「禁止使用LLM(大型語言模型)生成或改寫文章內容。」這比過去模糊的表述——「不應使用LLM從零開始生成新文章」——更為嚴格和具體。
但Wikipedia並未將AI完全驅逐出編輯流程。新政策仍允許編輯者使用LLM對自己撰寫的文字進行基本的語法校對建議,前提是必須經過人工審核,且AI不得自行添加任何新內容。政策文件中特別附上警語:「LLM可能超出你的要求,以引用來源無法支撐的方式改變文字含義,使用時需格外謹慎。」
這場討論在Wikipedia龐大的志願者社群中已醞釀已久。隨著AI工具快速普及,越來越多人擔憂AI生成內容悄悄滲入條目,最終侵蝕這個平台賴以立足的可信度根基。
為什麼這件事比看起來更重要
Wikipedia每月有約17億名獨立訪客,是全球被引用最頻繁的資訊來源之一。更關鍵的是,它也是眾多AI模型的核心訓練資料來源。如果AI生成的內容進入Wikipedia,再被下一代AI模型學習,就會形成一個「AI污染AI」的惡性循環——錯誤與幻覺在知識體系中不斷自我複製、放大。
對於華語世界而言,這個問題同樣切身相關。Wikipedia中文版是全球第六大語言版本,台灣、香港及海外華人社群的編輯者長期貢獻其中。在中國大陸,Wikipedia雖然長期遭到封鎖,但其內容仍透過各種管道被引用與傳播。值得對比的是,中國大陸的百度百科與互動百科等平台,對AI輔助內容的態度目前仍相對開放,這種分歧將如何影響兩岸三地的資訊生態,值得持續關注。
「人工」並不等於「可信」——問題沒那麼簡單
然而,這個決定也引發了值得深思的反問:Wikipedia的人工編輯,本來就可信嗎?
多年來,Wikipedia一直因資訊準確性、中立性問題飽受批評。人類編輯同樣帶有偏見,同樣會犯錯。部分研究甚至顯示,Wikipedia的錯誤率與傳統百科全書相差無幾。從這個角度來看,問題的核心或許不在於「誰寫的」,而在於「有沒有經過嚴格驗證」。
另一方面,AI生成內容的危險性有其獨特之處。LLM以「言之鑿鑿的錯誤」——即幻覺(hallucination)——著稱,它能以極其自然的語氣引用根本不存在的文獻,這與人類的粗心筆誤在性質上截然不同,更難以被普通讀者識別。
同時,完全排除AI輔助也意味著對志願編輯者施加更大壓力。Wikipedia的編輯社群正面臨老化與新血不足的問題,在AI工具日益普及的時代,強硬的禁令是否真能長期維持,還是只會讓規則在暗處被繞過,同樣是一個開放的問題。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美國聯邦法院裁定,國防部將AI公司Anthropic列入黑名單是違憲報復行為,因其透過媒體批評政府。這場判決對AI產業、言論自由與地緣政治意味著什麼?
聯邦法院裁定美國防部將Anthropic列為「供應鏈風險」的做法可能違法,這場AI企業與政府的法律戰,對全球科技產業與地緣政治格局意味著什麼?
Anthropic因公開批評美國國防部政策而遭列入黑名單,法院裁定此舉違反憲法第一修正案,頒布臨時禁令。這場科技與政府的角力,對全球AI產業意味著什麼?
聯邦法院裁定支持Anthropic,推翻美國政府將其列為供應鏈風險的決定。一家AI公司因拒絕讓政府用其技術開發自律武器,竟遭國家打壓——這場法律戰揭示的,遠不只是一場商業糾紛。
观点
分享你对这篇文章的看法
登录加入讨论