Wikipedia封殺AI寫作:誰有資格守護人類的知識?
Wikipedia以40比2的壓倒性票數,禁止編輯者使用AI生成文章內容。這個決定不只是一條平台規則,更是一場關於「知識可信度」的根本辯論。
當全球最大的免費百科全書決定對AI說「不」,這個訊號究竟在告訴我們什麼?
2026年3月,Wikipedia以40比2的壓倒性票數,正式通過禁止編輯者使用AI生成或改寫文章內容的新政策。這不是一個悄悄修改的技術條款,而是由數千名志願編輯者共同投票決定的集體意志。
新政策的邊界在哪裡
新政策的核心條文明確指出:「禁止使用LLM(大型語言模型)生成或改寫文章內容。」這比過去模糊的表述——「不應使用LLM從零開始生成新文章」——更為嚴格和具體。
但Wikipedia並未將AI完全驅逐出編輯流程。新政策仍允許編輯者使用LLM對自己撰寫的文字進行基本的語法校對建議,前提是必須經過人工審核,且AI不得自行添加任何新內容。政策文件中特別附上警語:「LLM可能超出你的要求,以引用來源無法支撐的方式改變文字含義,使用時需格外謹慎。」
這場討論在Wikipedia龐大的志願者社群中已醞釀已久。隨著AI工具快速普及,越來越多人擔憂AI生成內容悄悄滲入條目,最終侵蝕這個平台賴以立足的可信度根基。
為什麼這件事比看起來更重要
Wikipedia每月有約17億名獨立訪客,是全球被引用最頻繁的資訊來源之一。更關鍵的是,它也是眾多AI模型的核心訓練資料來源。如果AI生成的內容進入Wikipedia,再被下一代AI模型學習,就會形成一個「AI污染AI」的惡性循環——錯誤與幻覺在知識體系中不斷自我複製、放大。
對於華語世界而言,這個問題同樣切身相關。Wikipedia中文版是全球第六大語言版本,台灣、香港及海外華人社群的編輯者長期貢獻其中。在中國大陸,Wikipedia雖然長期遭到封鎖,但其內容仍透過各種管道被引用與傳播。值得對比的是,中國大陸的百度百科與互動百科等平台,對AI輔助內容的態度目前仍相對開放,這種分歧將如何影響兩岸三地的資訊生態,值得持續關注。
「人工」並不等於「可信」——問題沒那麼簡單
然而,這個決定也引發了值得深思的反問:Wikipedia的人工編輯,本來就可信嗎?
多年來,Wikipedia一直因資訊準確性、中立性問題飽受批評。人類編輯同樣帶有偏見,同樣會犯錯。部分研究甚至顯示,Wikipedia的錯誤率與傳統百科全書相差無幾。從這個角度來看,問題的核心或許不在於「誰寫的」,而在於「有沒有經過嚴格驗證」。
另一方面,AI生成內容的危險性有其獨特之處。LLM以「言之鑿鑿的錯誤」——即幻覺(hallucination)——著稱,它能以極其自然的語氣引用根本不存在的文獻,這與人類的粗心筆誤在性質上截然不同,更難以被普通讀者識別。
同時,完全排除AI輔助也意味著對志願編輯者施加更大壓力。Wikipedia的編輯社群正面臨老化與新血不足的問題,在AI工具日益普及的時代,強硬的禁令是否真能長期維持,還是只會讓規則在暗處被繞過,同樣是一個開放的問題。
相关文章
前Facebook新聞主管坎貝爾·布朗創立Forum AI,專門評估AI模型在地緣政治、金融、招聘等高風險議題上的表現。她的發現令人警惕,她的方法引發深思。
川普政府傳出考慮設立AI模型公開前審查機制,與此前去管制路線形成強烈對比。這對全球AI競爭格局、亞洲市場與華人科技業意味著什麼?
白宮據報正考慮在AI模型公開發布前實施政府審查。這與川普政府一貫的「鬆綁監管」立場明顯矛盾,背後的地緣政治邏輯與對亞洲市場的影響值得深究。
賓夕法尼亞州起訴Character.AI,指控其AI聊天機器人偽裝成持牌醫生提供心理健康建議。這場訴訟對亞洲AI醫療市場與監管框架意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论