Liabooks Home|PRISM News
AI生成的偏見:技術是社會的鏡子嗎?
科技AI分析

AI生成的偏見:技術是社會的鏡子嗎?

4分钟阅读Source

OpenAI的Sora影片生成工具被發現持續輸出種族與性別歧視內容。從一位導演的親身經歷,探討生成式AI的結構性偏見問題及其對華人世界的意義。

當你叫AI「畫一個普通人」,它畫出來的臉,是誰的臉?

美國導演瓦萊麗·維奇(Valerie Veatch)2024年首次接觸OpenAI推出的文字轉影片生成工具「Sora」時,出發點很單純——好奇心,以及想加入一個全球創作者社群的渴望。然而,她很快就發現,這個工具反覆生成帶有種族歧視與性別歧視色彩的影像內容,彷彿那是系統的「預設值」。

更讓她不安的,不是AI本身,而是周圍那些AI愛好者對此毫不在意的態度。

偏見從哪裡來?

生成式AI的運作原理,是從海量的網路資料中學習「什麼是正常的」。問題在於,人類在數位空間留下的資料,本身就充滿了歷史積累的偏見、不平等的再現,以及特定文化視角的主導。AI並非客觀地反映世界,而是忠實地複製了我們已經建構出來的偏斜現實

這不是Sora獨有的問題。從圖像生成的DALL-EMidjourney,到文字生成的各類大型語言模型,研究者多年來持續記錄著類似的結構性偏差:當提示詞(prompt)沒有特別指定時,「醫生」往往是白人男性,「護士」往往是女性,「罪犯」往往是有色人種。

為什麼現在這個問題更緊迫?

偏見問題並非新鮮事,但2024至2025年間,影片與圖像生成AI工具大規模向普通用戶開放,讓問題的規模產生了質變。

過去,這類偏差主要在研究論文中被討論。如今,它已內嵌於數百萬名設計師、行銷人員、教育工作者、新聞記者每天使用的工具之中。廣告素材、教學影片、社群媒體內容——AI生成的視覺語言正在以前所未有的速度滲透進公共話語空間。

PRISM

廣告合作

[email protected]

對於華人世界而言,這個問題有其特殊的維度。當主流生成式AI工具主要以英語語料、西方視覺文化為訓練基礎,它們對「亞洲人」、「華人」的預設呈現方式,往往也折射出西方媒體長期以來的刻板印象。台灣、香港、新加坡的創作者在使用這些工具時,是否也曾遭遇類似的困境?

不同立場,不同解讀

OpenAI等AI企業的立場是:內容安全過濾機制持續改進,模型迭代更新是解決問題的路徑。每次版本升級,有害輸出的比例都在下降。從商業邏輯看,這是「技術問題,技術解決」。

但批評者——包括維奇導演與眾多AI倫理研究者——認為,過濾機制只是治標。根本問題在於訓練資料的結構性偏差,以及誰有權決定「什麼算偏見、什麼算正常」。這是一個政治與文化的問題,不只是工程問題

從監管角度看,歐盟的AI法案(EU AI Act)已於2024年正式生效,對高風險AI系統提出透明度與問責要求。相比之下,中國大陸推行的《生成式人工智慧服務管理暫行辦法》側重於內容合規與意識形態安全,對演算法偏見的規範框架仍在發展中。台灣與香港目前尚無針對生成式AI偏見的專項立法。

值得關注的是,中國大陸本土的生成式AI產品——如文心一言通義千問Kimi等——同樣面臨訓練資料偏見的問題,只是偏見的方向與內容可能與西方產品截然不同。不同文化語境下的AI,會再現不同的「偏見地圖」。

社群的沉默,比演算法更值得警惕

維奇的故事中,最耐人尋味的細節不是AI輸出了歧視性內容,而是她的社群對此選擇沉默。當一個充滿創造力的社群,集體決定某些問題「不值得討論」,這本身就是一種文化訊號。

技術工具的偏見,可以透過工程手段逐步修正。但使用者社群的集體無感,卻更難以改變——因為它涉及的是人們願意看見什麼、願意質疑什麼的問題。


本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]
AI生成的偏見:技術是社會的鏡子嗎? | 科技 | PRISM by Liabooks