Liabooks Home|PRISM News
AI寫的政策文件,政府為何渾然不覺?
科技AI分析

AI寫的政策文件,政府為何渾然不覺?

4分钟阅读Source

南非因AI幻覺撤回國家AI政策草案,成全球首例。過去兩年五起政府文件污染事件,揭示制度驗證機制的系統性缺失。

一份監管AI的政策文件,因為AI的錯誤而被撤回。

2026年4月,南非發布「國家人工智慧政策草案」,準備成為非洲第一個設立正式AI倫理委員會的國家。然而,文件公布僅17天後,政府悄然撤回了它。原因是:參考文獻67筆中至少6筆引用了根本不存在的學術研究,多本被引用的期刊被查證為「完全虛構」。

南非通訊與數位技術部長索利·馬拉齊在聲明中坦承:「最合理的解釋,是AI生成的引用在未經適當核實的情況下被納入文件。」他並表示將對起草與品管責任人進行追究。

這是全球首次有政府以AI幻覺為由撤回官方文件。但這絕非孤例。

兩年五起:一個正在蔓延的系統性問題

過去兩年,AI生成的錯誤資訊滲入官方文件的事件至少發生了五起,涉及政府、監管機構與大型顧問公司。

2025年5月,美國川普政府發布的「兒童健康MAHA報告」中出現不存在的研究引用。華盛頓郵報發現部分網址含有「oaicite」字串——這通常被視為使用ChatGPT的痕跡。白宮發言人卡洛琳·萊維特將其定性為「格式問題」,數小時內上傳了修正版。

澳洲方面,政府委託德勤撰寫的就業政策報告被發現含有架空學術引用與捏造引言。德勤最終退還了29萬澳幣,約佔合約金額44萬澳幣的三分之二。

加拿大紐芬蘭與拉布拉多省政府委託同一家公司撰寫的醫療報告,合約金額高達120萬加幣,同樣出現虛假引用。事後,加拿大政府修訂採購合約,要求所有投標方必須揭露AI使用情況,並賦予政府在合約任何階段評估AI風險的權利。

PRISM

廣告合作

[email protected]

歐洲的案例或許最具警示意義。歐盟網路安全局ENISA承認,其2025年發布的兩份威脅報告含有AI幻覺來源。其中一份報告492條腳注中有26條有誤,而ENISA的年度預算高達2700萬歐元。AI法律與數據倫理研究者基亞拉·加萊澤直言:「ENISA讓AI碰觸了唯一不能在無防護狀態下碰觸的那一層——真相層。問題不在技術能力,而在流程:沒有強制驗證步驟,沒有來源核查,沒有明確的AI使用規則,只有速度、便利與預設的信任。」

為何此刻值得關注?

這些事件的時間點並非偶然。2024至2026年正是各國政府加速導入生成式AI的關鍵窗口期。行政效率的壓力、人力成本的考量,讓AI輔助文書撰寫從實驗走向常態。問題在於,導入的速度遠遠超過了驗證機制的建立速度

對於華語世界的讀者而言,這個趨勢有幾個值得深思的面向。

中國大陸在AI治理上採取了相對積極的監管立場,包括2023年的生成式AI服務管理暫行辦法,要求平台對AI生成內容進行標註與審核。但這些規範主要針對面向公眾的服務,政府內部使用AI的驗證義務,目前尚無明確規範。

台灣與香港的情況類似。各地政府陸續推動數位轉型,AI輔助行政的討論也日趨熱烈,但「AI生成內容的查核責任由誰承擔」這個問題,在制度層面仍是灰色地帶。

東南亞各國政府同樣面臨類似壓力。泰國、越南、印尼等國正積極制定AI政策,南非事件的前車之鑑,對這些仍在草擬框架的國家尤具參考價值——政策文件本身,也可能成為AI治理失敗的現場

禁止使用不是答案,但「預設信任」是陷阱

值得注意的是,沒有一個涉事政府選擇禁止AI的使用。加拿大選擇「強制揭露」,澳洲選擇「退款與重發」,南非選擇「撤回與追責」。各方的應對策略指向同一個方向:不是排除AI,而是建立制度性的驗證關卡

這背後有一個更深層的認識論問題。AI語言模型的設計目標是生成「聽起來合理」的文字,而非「經過驗證」的事實。當使用者——無論是政府官員、顧問公司研究員,還是政策起草人——將AI的輸出視為可信的起點而非需要核查的草稿時,幻覺就會悄悄成為官方記錄的一部分。

德勤的兩起案例還揭示了另一個維度:當政府將政策研究外包給私人顧問,而顧問又將部分工作外包給AI時,責任鏈條在哪裡斷裂? 合約條款能否追上技術使用的現實?

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]