深偽技術治理新思路:讓公民參與決策過程
金融時報提出深偽內容治理應納入公民聲音,挑戰專家主導的政策制定模式,為AI時代民主治理提供新方向。
當專家們在會議室裡討論如何對抗深偽技術時,真正會受到影響的公民卻被排除在外。金融時報最近提出的觀點正在挑戰這種傳統做法:治理深偽內容,應該問問公民怎麼想。
專家主導模式的局限
目前全球對於深偽技術和AI生成內容的監管,主要由技術專家、法律學者和政策制定者主導。從歐盟AI法案到美國各州的相關立法,決策過程都高度技術化和制度化。
然而這種「由上而下」的方式正面臨挑戰。2024年多個國家的選舉中,深偽內容的使用引發公眾關注,但現有的監管框架往往無法有效回應民眾的實際需求。技術可行性與社會接受度之間的落差,讓許多政策在實施階段遭遇阻力。
FT指出,這種專家主導的模式忽略了一個關鍵問題:最終承受深偽技術影響的是普通公民,他們對於隱私保護、言論自由和資訊真實性的平衡有著自己的判斷。
華人社會的獨特挑戰
在華人社會,這個問題更加複雜。台灣面臨來自對岸的資訊戰威脅,香港的媒體環境持續變化,新加坡則在平衡監管與創新之間尋找出路。不同地區的公民對於政府介入程度的接受度差異很大。
以台灣為例,2024年選舉期間出現多起疑似深偽影片事件,引發社會討論。但在制定對策時,技術解決方案往往優先於公民意見收集。類似情況在其他華人地區也不少見。
騰訊、阿里巴巴等科技巨頭雖然在AI檢測技術方面投入巨資,但這些技術如何部署、在什麼情況下使用,很少有公民參與的空間。
民主參與的新模式
FT提出的解決方案並非簡單的「民意調查」,而是建構更深度的公民參與機制。具體包括隨機抽選的公民陪審團、分區域的對話論壇,以及線上參與平台等多元管道。
這種做法已在其他政策領域展現成效。愛爾蘭通過公民大會解決墮胎法爭議,法國用類似方式處理氣候變遷政策。這些經驗顯示,複雜的價值判斷問題,往往需要專業知識與民主程序的結合。
對於深偽技術治理而言,公民參與能幫助回答一些技術專家無法解決的問題:民眾能接受多大程度的隱私讓渡?什麼樣的內容標示方式最有效?如何在打擊假訊息與保護言論自由之間找到平衡?
重新定義科技治理
這個討論的意義超越了深偽技術本身。隨著AI技術快速發展,從ChatGPT到各種生成式AI工具,社會需要新的治理模式來應對技術變革帶來的挑戰。
傳統的「專家決定、民眾接受」模式在AI時代顯得力不從心。技術發展的速度遠超政策制定的節奏,而技術影響的廣度又遠超專家的預判能力。在這種情況下,納入公民聲音不僅是民主原則的要求,更是政策有效性的保障。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
AI企業支持的政治團體投入巨資支持候選人,對抗各州分散的AI法規,推動統一的聯邦監管。分析背後戰略與全球影響。
AI產業採用加密貨幣業界成功的政治影響力策略,成立新的超級政治行動委員會,為2026年中期選舉推動監管鬆綁。分析其背景與潛在影響。
ASIC年度報告揭露加密貨幣與AI企業監管空白,消費者面臨未知風險。分析政府應對策略與市場影響
Grok AI因性化深偽技術遭歐盟正式調查,美國國會加強執法。科技巨頭面臨產品上線前風險評估的新時代
观点
分享你对这篇文章的看法
登录加入讨论