Liabooks Home|PRISM News
Wikipedia封殺AI寫作:誰有資格守護人類的知識?
科技AI分析

Wikipedia封殺AI寫作:誰有資格守護人類的知識?

3分钟阅读Source

Wikipedia以40比2的壓倒性票數,禁止編輯者使用AI生成文章內容。這個決定不只是一條平台規則,更是一場關於「知識可信度」的根本辯論。

當全球最大的免費百科全書決定對AI說「不」,這個訊號究竟在告訴我們什麼?

2026年3月,Wikipedia40比2的壓倒性票數,正式通過禁止編輯者使用AI生成或改寫文章內容的新政策。這不是一個悄悄修改的技術條款,而是由數千名志願編輯者共同投票決定的集體意志。

新政策的邊界在哪裡

新政策的核心條文明確指出:「禁止使用LLM(大型語言模型)生成或改寫文章內容。」這比過去模糊的表述——「不應使用LLM從零開始生成新文章」——更為嚴格和具體。

Wikipedia並未將AI完全驅逐出編輯流程。新政策仍允許編輯者使用LLM對自己撰寫的文字進行基本的語法校對建議,前提是必須經過人工審核,且AI不得自行添加任何新內容。政策文件中特別附上警語:「LLM可能超出你的要求,以引用來源無法支撐的方式改變文字含義,使用時需格外謹慎。」

這場討論在Wikipedia龐大的志願者社群中已醞釀已久。隨著AI工具快速普及,越來越多人擔憂AI生成內容悄悄滲入條目,最終侵蝕這個平台賴以立足的可信度根基。

為什麼這件事比看起來更重要

PRISM

廣告合作

[email protected]

Wikipedia每月有約17億名獨立訪客,是全球被引用最頻繁的資訊來源之一。更關鍵的是,它也是眾多AI模型的核心訓練資料來源。如果AI生成的內容進入Wikipedia,再被下一代AI模型學習,就會形成一個「AI污染AI」的惡性循環——錯誤與幻覺在知識體系中不斷自我複製、放大。

對於華語世界而言,這個問題同樣切身相關。Wikipedia中文版是全球第六大語言版本,台灣、香港及海外華人社群的編輯者長期貢獻其中。在中國大陸,Wikipedia雖然長期遭到封鎖,但其內容仍透過各種管道被引用與傳播。值得對比的是,中國大陸的百度百科互動百科等平台,對AI輔助內容的態度目前仍相對開放,這種分歧將如何影響兩岸三地的資訊生態,值得持續關注。

「人工」並不等於「可信」——問題沒那麼簡單

然而,這個決定也引發了值得深思的反問:Wikipedia的人工編輯,本來就可信嗎?

多年來,Wikipedia一直因資訊準確性、中立性問題飽受批評。人類編輯同樣帶有偏見,同樣會犯錯。部分研究甚至顯示,Wikipedia的錯誤率與傳統百科全書相差無幾。從這個角度來看,問題的核心或許不在於「誰寫的」,而在於「有沒有經過嚴格驗證」。

另一方面,AI生成內容的危險性有其獨特之處。LLM以「言之鑿鑿的錯誤」——即幻覺(hallucination)——著稱,它能以極其自然的語氣引用根本不存在的文獻,這與人類的粗心筆誤在性質上截然不同,更難以被普通讀者識別。

同時,完全排除AI輔助也意味著對志願編輯者施加更大壓力。Wikipedia的編輯社群正面臨老化與新血不足的問題,在AI工具日益普及的時代,強硬的禁令是否真能長期維持,還是只會讓規則在暗處被繞過,同樣是一個開放的問題。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]