Liabooks Home|PRISM News
Meta監督委員會面臨AI時代治理難題
科技AI分析

Meta監督委員會面臨AI時代治理難題

3分钟阅读Source

隨著AI生成內容激增,Meta監督委員會傳統的個案審查模式面臨挑戰。機器審查在非西方語言環境下表現不佳,地區專業知識成為關鍵。

七成社交媒體圖片由AI生成,八成內容推薦依賴演算法時,Meta監督委員會正面臨前所未有的挑戰:如何在AI爆發的時代維持有效監督?

作為監督FacebookInstagramThreads內容審查的獨立機構,Meta監督委員會自2018年成立以來,一直扮演著「社交媒體最高法院」的角色。21名全球成員組成的委員會採用個案審查模式,對用戶申訴做出具約束力的裁決。但隨著生成式AI技術的普及,這種耗時數月的審查方式正面臨根本性挑戰。

審查模式的結構性困境

委員會唯一的印度成員、法學學者蘇迪爾·克里希納斯瓦米坦承,傳統的個案審查模式可能無法適應AI時代的需求。「我們正在考慮減少個別案例導向的工作,轉向更加結構化的方法,」他表示。

數據顯示問題的嚴重性:委員會收到數百萬件申請,但只能處理其中極少數。預計2026年企業社交媒體內容將有近半數由AI生成,現有處理能力明顯不足。

機器審查雖然在識別成人內容方面表現出色,但在仇恨言論、假資訊和錯誤資訊判定上仍「過於複雜」。更關鍵的是,這些工具在西方以外地區的語言、文化和政治語境理解上表現不佳。

文化語境的關鍵作用

委員會的干預案例突顯了地區專業知識的重要性。以「shaheed」(殉道者)一詞為例,Meta最初全面禁用這個在阿拉伯語、烏爾都語、波斯語、旁遮普語、孟加拉語和印地語中常見的詞彙,理由是極端分子會用它讚美恐怖分子。但委員會指出,數億人在完全不同的語境下使用這個詞。

肯亞的政治評論案例中,委員會推翻了Meta刪除包含「誹謗」用詞評論的決定,裁定該詞在當地語境下並非種族歧視,而是政治批評的表達。類似地,委員會在衣索比亞巴基斯坦烏克蘭義大利的四起案例中,都推翻了Meta對「威脅當局」評論的刪除決定。

全球不平等的數位體現

全球AI治理中心創辦人瑞秋·亞當斯指出,AI審查在全球範圍內「嚴重不均」,全球多數人口往往承擔這種不均衡的代價。康乃爾大學全球AI倡議負責人阿迪蒂亞·瓦希什塔的研究顯示,AI經常忽略印地語中與殘疾相關的誹謗詞彙,而Facebook直到2020年才為孟加拉語——世界上使用最廣泛的語言之一——實施仇恨言論分類器。

「早期一些大型科技公司設立的AI安全委員會全由美國人組成,這種模式行不通,」克里希納斯瓦米警告,「在土耳其行不通,在印度行不通,在索馬利亞也行不通。」

人機共存的複雜未來

隨著生成式AI與社交媒體的深度融合,平台上將出現人類、AI輔助的人類和純AI代理的混合生態。「當平台上人類和代理共存時,你會很難分辨什麼是什麼,複雜案例將因此產生,」克里希納斯瓦米預測。

委員會在2025年12月發布的五年評估報告顯示,Meta執行了所有具約束力的決定,並採納了約75%的建議。然而,一些關於演算法透明度的呼籲僅獲得部分回應。

亞當斯建議委員會除了律師和記者外,還應考慮聘請AI評估專家、社會語言學家、地區語言專家、兒童安全專家、性別暴力和騷擾專家,以及勞工福利專家。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章