你讀到的那些「人話」,真的是人寫的嗎?
《紐約時報》知名專欄疑似含有AI生成文字,引發媒體信任危機。當AI悄悄滲入頂級新聞機構,讀者、媒體與科技公司各自面臨什麼樣的抉擇?
「不是恨,不是憤怒。只是一顆太累、不再嘗試的心,留下的平靜終結。」
這段文字出自《紐約時報》著名專欄「現代愛情」,描述一位失去監護權的母親與兒子之間的情感距離。讀到這裡,你或許感受到了某種人類特有的哀傷。但如果這段話不是人寫的呢?
一篇專欄,引爆的不只是爭議
2026年3月,作家貝琪·塔奇在X平台貼出這段文字,直言「這讀起來完全像AI廢文」。她的貼文引來超過100則回覆,其中一位史托尼布魯克大學電腦科學教授、AI研究員圖欣·查克拉巴蒂,將整篇專欄輸入新創公司Pangram Labs的AI偵測工具,結果顯示逾60%的內容疑似由AI生成。
他進一步用另外四款工具交叉驗證:兩款標記約30%為疑似AI生成,一款未偵測到AI,一款懷疑有AI但未給出數字。結果的分歧,恰恰說明這個問題有多複雜。
專欄作者凱特·吉爾根承認使用了AI,包括ChatGPT、Claude、Copilot、Gemini與Perplexity,但強調「我把AI當作協作編輯,而非內容生成器」。《紐約時報》則回應:「時報的新聞工作本質上是人類的事業,這不會改變。」言辭模糊,未正面回答是否需要揭露。
這不是個案,是趨勢
馬里蘭大學博士候選人珍娜·羅素帶領七人研究團隊,用Pangram掃描了美國主要媒體數千篇文章,發現《紐約時報》、《華爾街日報》、《華盛頓郵報》的評論版,均出現疑似AI生成語言的跡象。這份預印本研究雖尚未經過同儕審查,卻已在媒體圈引發廣泛討論。
幾乎同一時期,出版巨頭阿歇特宣布取消出版小說《Shy Girl》,因讀者在美國版上市前就發現書中疑含AI文字;芝加哥太陽報與費城詢問報則刊出了一份由自由撰稿人用ChatGPT捏造的書單,其中推薦的書根本不存在。
這些事件共同指向一個現實:AI生成的內容,已在讀者毫不知情的情況下,悄悄滲入了被視為「可信賴堡壘」的主流媒體。
為什麼這件事在此刻特別重要
對於台灣、香港及東南亞華人媒體生態而言,這個問題有著特殊的在地意義。在資訊戰與假新聞壓力本就沉重的環境中,讀者對媒體的信任本已脆弱。若連《紐約時報》這樣的機構都難以確保「每一個字都是人寫的」,那麼資源更為有限的本地媒體,又該如何自處?
更深層的問題在於:AI生成的文字不只是「品質問題」。研究顯示,AI輸出的語言遠比人類語言均質,且可能帶有特定文化或政治傾向的偏誤。馬斯克旗下的Grok聊天機器人,其語言風格被分析發現常模仿馬斯克本人。多項研究也指出,AI生成文字的說服力異常強大,足以改變人們對政治議題或候選人的看法。
當評論文章以真實人名發表,卻實為AI之作,這已不只是著作權或透明度的問題——它動搖的是民主討論的基礎。
誰該負責,誰能解決
技術層面,OpenAI據報已開發出準確率高達99.9%的AI文字偵測工具,卻遲遲未公開。原因之一,是內部調查顯示若部署浮水印技術,部分用戶「會減少使用ChatGPT」。查克拉巴蒂直指問題核心:「Anthropic或OpenAI為何要這麼做?他們整個商業模式,就建立在讓人相信AI語言跟人類一樣自然。」
這在中國大陸的情境下有另一層解讀。百度文心、阿里通義等中國大型語言模型,同樣面臨透明度的質疑,但監管框架截然不同——中國政府已要求AI生成內容必須加上標記,儘管執行成效仍有爭議。相較之下,美國的媒體AI規範至今仍高度依賴各機構自律。
對媒體機構而言,可行的做法包括:在合約中明確列出AI使用與揭露義務、訓練編輯識別AI文體特徵、對違規者施以法律或職業代價。立法機關也可考慮在特定情境下強制要求揭露,但言論自由的邊界將使執法充滿挑戰。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美國研究團隊開發出結合紅外線、熱感應與AI的自主無人機系統,可在森林中定位失蹤者並判斷其意識狀態與體溫異常,為搜救行動帶來根本性變革。
美國衛生部長小羅伯特·甘迺迪以AI生成摔角影片狂刷存在感,數百萬次觀看背後,是一場精心設計的注意力政治——但真正的政策成果在哪裡?
「氛圍編程」(Vibe Coding)正席捲科技業——不用寫一行程式碼,AI就能幫你完成。75位開發者的親身經歷,揭示這場靜悄悄的職業革命,對華人科技圈意味著什麼。
社群媒體讓資訊環境四分五裂,生成式AI是否能重建共識?從技術誘因到威權風險,多角度剖析AI對公共論述的深層影響。
观点
分享你对这篇文章的看法
登录加入讨论