Liabooks Home|PRISM News
教宗的推文是AI寫的?網路真實性正在崩解
CultureAI分析

教宗的推文是AI寫的?網路真實性正在崩解

4分钟阅读Source

當AI生成內容可能已佔網路新文章半數,AI偵測公司Pangram創辦人揭露「垃圾內容海嘯」背後的技術戰、文化危機,以及這場人機之戰的真實代價。

教宗方濟各在X平台上發文警告AI的危險性——然而根據AI偵測工具Pangram的分析,那篇文章本身很可能就是用AI寫的。梵蒂岡拒絕回應媒體詢問。

這個細節之所以耐人尋味,不只是因為它諷刺,而是因為它精準地描述了2026年網路的現實:幾乎每個人都在用AI,幾乎沒有人承認。

「垃圾內容海嘯」已經來臨

根據Pangram的調查,2025年新上線網站中有35%是AI生成或AI輔助的內容。部分研究者估計,網路上所有新產出的文章,超過一半來自大型語言模型。這個現象有個已在英語網路圈流傳的名字:「slop」——無靈魂的、大量生產的合成文字垃圾。

問題的規模遠超過「學生用ChatGPT交作業」的層次。Hachette出版社今年3月以疑似AI創作為由,取消了恐怖小說《Shy Girl》的出版合約(作者否認)。科技記者泰勒・洛倫茲使用Pangram掃描Substack上的熱門電子報,發現部分訂閱人數排名前列的電子報「發布的是100%的AI生成內容,完全沒有人工編輯的痕跡」。在LinkedIn上,有人用AI撰寫求職公告;在Tinder上,有人忘記刪掉ChatGPT的提示語就直接貼上了個人簡介。

AI文字已不再只是「垃圾郵件」——它滲透進了人與人之間本應真實的溝通之中。

Pangram如何辨別「人味」

Pangram共同創辦人麥克斯・斯佩羅(Max Spero)用一個比喻解釋他的技術:每一篇文章,都是作者在一棵巨大決策樹上走過的一條路徑。人類的選擇充滿混亂與個性;大型語言模型則傾向於反覆走相似的路——這被研究者稱為「模式崩潰」(mode collapse)。

PRISM

廣告合作

[email protected]

Pangram的訓練方式是:取數百萬份人類撰寫的文件,再請AI模型生成「合成鏡像」版本,然後讓機器學習模型在這兩者的對照中,學會辨識差異。最終的偽陽性率(將人類文章誤判為AI的機率)被控制在萬分之一

模型每三到六週從頭重新訓練一次,因為每當ClaudeChatGPT推出新版本,語言習慣就會微妙改變。斯佩羅指出,早期模型愛用「delve(深入探討)」、過度使用破折號等明顯特徵,在最新模型中幾乎已消失——偵測難度持續上升。

Pangram還推出了Chrome瀏覽器擴充功能,可以在使用者瀏覽X、LinkedIn、Reddit、Substack時,即時標記哪些貼文疑似AI生成,並給出「動態消息健康分數」。斯佩羅自己的動態消息目前約有85%是人類撰寫的內容——「那剩下的15%,一年前根本不存在」,他說。

華人世界的特殊處境

這場關於AI內容真實性的辯論,在華語網路生態中有其特殊的複雜性。

在中國大陸,內容審查機制已形成一套獨特的過濾體系,但AI生成內容的泛濫同樣是監管機構面臨的挑戰——中國網信辦已於2023年率先推出《生成式人工智慧服務管理暫行辦法》,要求AI生成內容標註水印,這在全球屬於較早的立法嘗試。然而執行效果與技術現實之間的落差,仍是未解之題。

在台灣與香港,媒體信任度本就因政治因素而高度敏感,AI生成的假新聞與輿論操控風險更加立體。斯佩羅提到,未來AI將被用於「將算力轉化為政治影響力、敘事影響力」——對於長期處於資訊戰前線的台灣社會而言,這不是抽象的未來,而是已在發生的現實。

對於東南亞的華人社群而言,語言本身構成另一層防線的缺口:目前主流AI偵測工具大多以英文訓練資料為主,中文、馬來文、泰文混雜的網路環境,是技術覆蓋的盲區。

斯佩羅坦承,在後ChatGPT時代,網路爬取的資料已無法保證「乾淨的標籤」——訓練資料本身可能已被AI污染,這是一個尚無解方的根本性困境。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]