AI生成的偏見:技術是社會的鏡子嗎?
OpenAI的Sora影片生成工具被發現持續輸出種族與性別歧視內容。從一位導演的親身經歷,探討生成式AI的結構性偏見問題及其對華人世界的意義。
當你叫AI「畫一個普通人」,它畫出來的臉,是誰的臉?
美國導演瓦萊麗·維奇(Valerie Veatch)在2024年首次接觸OpenAI推出的文字轉影片生成工具「Sora」時,出發點很單純——好奇心,以及想加入一個全球創作者社群的渴望。然而,她很快就發現,這個工具反覆生成帶有種族歧視與性別歧視色彩的影像內容,彷彿那是系統的「預設值」。
更讓她不安的,不是AI本身,而是周圍那些AI愛好者對此毫不在意的態度。
偏見從哪裡來?
生成式AI的運作原理,是從海量的網路資料中學習「什麼是正常的」。問題在於,人類在數位空間留下的資料,本身就充滿了歷史積累的偏見、不平等的再現,以及特定文化視角的主導。AI並非客觀地反映世界,而是忠實地複製了我們已經建構出來的偏斜現實。
這不是Sora獨有的問題。從圖像生成的DALL-E、Midjourney,到文字生成的各類大型語言模型,研究者多年來持續記錄著類似的結構性偏差:當提示詞(prompt)沒有特別指定時,「醫生」往往是白人男性,「護士」往往是女性,「罪犯」往往是有色人種。
為什麼現在這個問題更緊迫?
偏見問題並非新鮮事,但2024至2025年間,影片與圖像生成AI工具大規模向普通用戶開放,讓問題的規模產生了質變。
過去,這類偏差主要在研究論文中被討論。如今,它已內嵌於數百萬名設計師、行銷人員、教育工作者、新聞記者每天使用的工具之中。廣告素材、教學影片、社群媒體內容——AI生成的視覺語言正在以前所未有的速度滲透進公共話語空間。
對於華人世界而言,這個問題有其特殊的維度。當主流生成式AI工具主要以英語語料、西方視覺文化為訓練基礎,它們對「亞洲人」、「華人」的預設呈現方式,往往也折射出西方媒體長期以來的刻板印象。台灣、香港、新加坡的創作者在使用這些工具時,是否也曾遭遇類似的困境?
不同立場,不同解讀
OpenAI等AI企業的立場是:內容安全過濾機制持續改進,模型迭代更新是解決問題的路徑。每次版本升級,有害輸出的比例都在下降。從商業邏輯看,這是「技術問題,技術解決」。
但批評者——包括維奇導演與眾多AI倫理研究者——認為,過濾機制只是治標。根本問題在於訓練資料的結構性偏差,以及誰有權決定「什麼算偏見、什麼算正常」。這是一個政治與文化的問題,不只是工程問題。
從監管角度看,歐盟的AI法案(EU AI Act)已於2024年正式生效,對高風險AI系統提出透明度與問責要求。相比之下,中國大陸推行的《生成式人工智慧服務管理暫行辦法》側重於內容合規與意識形態安全,對演算法偏見的規範框架仍在發展中。台灣與香港目前尚無針對生成式AI偏見的專項立法。
值得關注的是,中國大陸本土的生成式AI產品——如文心一言、通義千問、Kimi等——同樣面臨訓練資料偏見的問題,只是偏見的方向與內容可能與西方產品截然不同。不同文化語境下的AI,會再現不同的「偏見地圖」。
社群的沉默,比演算法更值得警惕
維奇的故事中,最耐人尋味的細節不是AI輸出了歧視性內容,而是她的社群對此選擇沉默。當一個充滿創造力的社群,集體決定某些問題「不值得討論」,這本身就是一種文化訊號。
技術工具的偏見,可以透過工程手段逐步修正。但使用者社群的集體無感,卻更難以改變——因為它涉及的是人們願意看見什麼、願意質疑什麼的問題。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic向法院提交宣誓聲明,反駁五角大廈「國家安全威脅」定性。這場訴訟揭示的,是AI企業自主權與政府軍事需求之間的根本張力。
OpenAI宣布以全自主AI研究員為未來數年核心目標,計劃2025年完成「AI研究實習生」,2028年實現完整多智能體研究系統。這對華人世界意味著什麼?
OpenAI宣布將打造「完全自主AI研究員」,2026年9月推出AI研究實習生,2028年部署多智能體系統。這不只是技術里程碑,更是一場關於誰掌控未來知識生產的地緣競賽。
OpenAI計劃將ChatGPT、Codex程式工具與Atlas瀏覽器整合為單一桌面應用。這場整合背後,隱藏著什麼樣的競爭邏輯與潛在風險?
观点
分享你对这篇文章的看法
登录加入讨论