Liabooks Home|PRISM News
深偽技術治理新思路:讓公民參與決策過程
经济AI分析

深偽技術治理新思路:讓公民參與決策過程

3分钟阅读Source

金融時報提出深偽內容治理應納入公民聲音,挑戰專家主導的政策制定模式,為AI時代民主治理提供新方向。

當專家們在會議室裡討論如何對抗深偽技術時,真正會受到影響的公民卻被排除在外。金融時報最近提出的觀點正在挑戰這種傳統做法:治理深偽內容,應該問問公民怎麼想。

專家主導模式的局限

目前全球對於深偽技術AI生成內容的監管,主要由技術專家、法律學者和政策制定者主導。從歐盟AI法案美國各州的相關立法,決策過程都高度技術化和制度化。

然而這種「由上而下」的方式正面臨挑戰。2024年多個國家的選舉中,深偽內容的使用引發公眾關注,但現有的監管框架往往無法有效回應民眾的實際需求。技術可行性與社會接受度之間的落差,讓許多政策在實施階段遭遇阻力。

FT指出,這種專家主導的模式忽略了一個關鍵問題:最終承受深偽技術影響的是普通公民,他們對於隱私保護、言論自由和資訊真實性的平衡有著自己的判斷。

華人社會的獨特挑戰

在華人社會,這個問題更加複雜。台灣面臨來自對岸的資訊戰威脅,香港的媒體環境持續變化,新加坡則在平衡監管與創新之間尋找出路。不同地區的公民對於政府介入程度的接受度差異很大。

以台灣為例,2024年選舉期間出現多起疑似深偽影片事件,引發社會討論。但在制定對策時,技術解決方案往往優先於公民意見收集。類似情況在其他華人地區也不少見。

騰訊阿里巴巴等科技巨頭雖然在AI檢測技術方面投入巨資,但這些技術如何部署、在什麼情況下使用,很少有公民參與的空間。

民主參與的新模式

FT提出的解決方案並非簡單的「民意調查」,而是建構更深度的公民參與機制。具體包括隨機抽選的公民陪審團、分區域的對話論壇,以及線上參與平台等多元管道。

這種做法已在其他政策領域展現成效。愛爾蘭通過公民大會解決墮胎法爭議,法國用類似方式處理氣候變遷政策。這些經驗顯示,複雜的價值判斷問題,往往需要專業知識與民主程序的結合。

對於深偽技術治理而言,公民參與能幫助回答一些技術專家無法解決的問題:民眾能接受多大程度的隱私讓渡?什麼樣的內容標示方式最有效?如何在打擊假訊息與保護言論自由之間找到平衡?

重新定義科技治理

這個討論的意義超越了深偽技術本身。隨著AI技術快速發展,從ChatGPT到各種生成式AI工具,社會需要新的治理模式來應對技術變革帶來的挑戰。

傳統的「專家決定、民眾接受」模式在AI時代顯得力不從心。技術發展的速度遠超政策制定的節奏,而技術影響的廣度又遠超專家的預判能力。在這種情況下,納入公民聲音不僅是民主原則的要求,更是政策有效性的保障。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章