AI借用真人身份背書,記者提告Grammarly
文字校正工具Grammarly未經授權,將真實記者的姓名與肖像用於AI「專家審閱」功能長達數月。集體訴訟揭示AI時代肖像權與商業利用的全新戰場。
如果有一天你發現,一個全球數百萬人使用的AI工具,正在用你的名字和臉孔為自己的服務背書——而你從來不知道這件事,你會怎麼想?
這不是假設。這是 Julia Angwin 正在經歷的現實。
事件經過:名字被「借走」了數個月
Grammarly 是全球最廣泛使用的英文寫作輔助工具之一,用戶超過3,000萬。其「專家審閱(Expert Review)」功能宣稱能提供專業人士視角的文字改進建議,聽起來頗具公信力。
然而,問題就出在這個「專家」究竟是誰。
根據 The Verge 及 Wired 的調查報導,Grammarly 在這項功能中,未經當事人同意,使用了多位真實記者與公眾人物的姓名與肖像。這種情況持續了數個月,相關人士完全不知情。
記者 Julia Angwin 是最早站出來的當事人之一。她表示,自己是透過同為受害者的記者 Casey Newton 才得知此事,而非收到任何來自 Grammarly 或其母公司 Superhuman 的通知。
2026年3月,Angwin 正式向法院提起集體訴訟,指控 Superhuman 在未獲同意的情況下,將她的身份用於商業目的,違反了美國關於「未經授權使用他人姓名肖像進行商業利用」的相關法律,侵犯了她的隱私權與公開權(publicity rights)。
為什麼這件事現在特別重要
表面上,這是一起企業疏失引發的法律糾紛。但放在更大的背景下,它揭示的是一個正在快速成形的系統性風險。
隨著生成式AI工具的爆炸性普及,「用真實人物的信譽為AI產品增添可信度」的做法,已悄悄成為一種商業誘惑。Grammarly 的案例並非孤例——類似的「AI偽造推薦」、「虛假專家引用」問題在全球多個平台都有出現。
問題的本質不是AI說謊,而是企業用AI「借用」了別人的信用,卻沒有支付任何代價。
公開權(publicity rights)是指個人對自己姓名、肖像等個人識別特徵進行商業利用的控制權,在美國受各州法律保護。這項權利的核心是「同意」——即便是公眾人物,其形象的商業使用也必須獲得授權。
不同視角的解讀
對一般用戶而言,這個案例動搖了一個基本假設:AI工具給出的「專業建議」,背後真的有專業人士背書嗎?當「專家」只是一個被借來的名字,用戶的信任是否也被一同「借走」了?
對科技企業而言,這是一記警鐘。在競爭激烈的AI工具市場中,用真實人物的公信力來提升產品吸引力是一條捷徑,但法律與道德的邊界正在被重新劃定。訴訟成本、聲譽損失,以及可能的集體賠償,讓這條捷徑的風險急劇上升。
從華人世界的角度來看,這個議題有其特殊的共鳴。在台灣、香港及東南亞華人社群中,對個人隱私與肖像權的重視程度日益提高,尤其在Deepfake技術氾濫的背景下,「未授權使用他人形象」的邊界已成為社會高度關注的議題。相比之下,中國大陸在AI監管層面的路徑有所不同——當局更傾向於從國家安全與內容管理角度介入,而非個人權利保護的框架。
對亞洲市場的影響同樣值得關注。Grammarly 在亞洲市場持續擴張,包括針對非英語母語用戶的功能開發。此次訴訟若勝訴,將可能推動全球範圍內AI工具在「人物授權使用」方面的合規標準提升,間接影響亞洲本土AI寫作工具的開發規範。
尚未有答案的問題
這場訴訟的結果,將在某種程度上為「AI可以如何使用真實人物形象」劃定法律紅線。但更深層的問題還沒有答案:在數位時代,我們有辦法知道自己的名字或臉孔是否已被某個AI服務悄悄使用嗎?「同意」這個概念,在演算法面前還有多少實質意義?
相关文章
OpenAI在加拿大槍擊案發生前,已停用嫌疑人帳號並內部討論是否通報警方,最終選擇沉默。執行長阿特曼公開道歉,但這場悲劇揭露的,是AI企業掌握危險信號卻無法律義務通報的制度空白。
美國數據分析巨頭Palantir的員工,因公司深度參與移民驅逐行動及疑似涉及伊朗學校空襲,開始在內部公開質疑公司的道德立場。這場企業內部的倫理風暴,對科技業意味著什麼?
Citizen Lab揭露兩起濫用全球電信基礎設施漏洞的監控活動,監視供應商偽裝成合法電信商,追蹤目標位置。SS7協議漏洞數十年未修補,問題核心是什麼?
Meta宣布將收集員工的鍵盤輸入與滑鼠操作作為AI訓練資料。這不只是一家公司的決策,而是整個科技業對「數據飢渴」的縮影。
观点
分享你对这篇文章的看法
登录加入讨论