AI借用真人身份背書,記者提告Grammarly
文字校正工具Grammarly未經授權,將真實記者的姓名與肖像用於AI「專家審閱」功能長達數月。集體訴訟揭示AI時代肖像權與商業利用的全新戰場。
如果有一天你發現,一個全球數百萬人使用的AI工具,正在用你的名字和臉孔為自己的服務背書——而你從來不知道這件事,你會怎麼想?
這不是假設。這是 Julia Angwin 正在經歷的現實。
事件經過:名字被「借走」了數個月
Grammarly 是全球最廣泛使用的英文寫作輔助工具之一,用戶超過3,000萬。其「專家審閱(Expert Review)」功能宣稱能提供專業人士視角的文字改進建議,聽起來頗具公信力。
然而,問題就出在這個「專家」究竟是誰。
根據 The Verge 及 Wired 的調查報導,Grammarly 在這項功能中,未經當事人同意,使用了多位真實記者與公眾人物的姓名與肖像。這種情況持續了數個月,相關人士完全不知情。
記者 Julia Angwin 是最早站出來的當事人之一。她表示,自己是透過同為受害者的記者 Casey Newton 才得知此事,而非收到任何來自 Grammarly 或其母公司 Superhuman 的通知。
2026年3月,Angwin 正式向法院提起集體訴訟,指控 Superhuman 在未獲同意的情況下,將她的身份用於商業目的,違反了美國關於「未經授權使用他人姓名肖像進行商業利用」的相關法律,侵犯了她的隱私權與公開權(publicity rights)。
為什麼這件事現在特別重要
表面上,這是一起企業疏失引發的法律糾紛。但放在更大的背景下,它揭示的是一個正在快速成形的系統性風險。
隨著生成式AI工具的爆炸性普及,「用真實人物的信譽為AI產品增添可信度」的做法,已悄悄成為一種商業誘惑。Grammarly 的案例並非孤例——類似的「AI偽造推薦」、「虛假專家引用」問題在全球多個平台都有出現。
問題的本質不是AI說謊,而是企業用AI「借用」了別人的信用,卻沒有支付任何代價。
公開權(publicity rights)是指個人對自己姓名、肖像等個人識別特徵進行商業利用的控制權,在美國受各州法律保護。這項權利的核心是「同意」——即便是公眾人物,其形象的商業使用也必須獲得授權。
不同視角的解讀
對一般用戶而言,這個案例動搖了一個基本假設:AI工具給出的「專業建議」,背後真的有專業人士背書嗎?當「專家」只是一個被借來的名字,用戶的信任是否也被一同「借走」了?
對科技企業而言,這是一記警鐘。在競爭激烈的AI工具市場中,用真實人物的公信力來提升產品吸引力是一條捷徑,但法律與道德的邊界正在被重新劃定。訴訟成本、聲譽損失,以及可能的集體賠償,讓這條捷徑的風險急劇上升。
從華人世界的角度來看,這個議題有其特殊的共鳴。在台灣、香港及東南亞華人社群中,對個人隱私與肖像權的重視程度日益提高,尤其在Deepfake技術氾濫的背景下,「未授權使用他人形象」的邊界已成為社會高度關注的議題。相比之下,中國大陸在AI監管層面的路徑有所不同——當局更傾向於從國家安全與內容管理角度介入,而非個人權利保護的框架。
對亞洲市場的影響同樣值得關注。Grammarly 在亞洲市場持續擴張,包括針對非英語母語用戶的功能開發。此次訴訟若勝訴,將可能推動全球範圍內AI工具在「人物授權使用」方面的合規標準提升,間接影響亞洲本土AI寫作工具的開發規範。
尚未有答案的問題
這場訴訟的結果,將在某種程度上為「AI可以如何使用真實人物形象」劃定法律紅線。但更深層的問題還沒有答案:在數位時代,我們有辦法知道自己的名字或臉孔是否已被某個AI服務悄悄使用嗎?「同意」這個概念,在演算法面前還有多少實質意義?
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
AI寫作工具Grammarly未經同意使用知名記者與作家身份,遭集體訴訟。這起案件揭示了AI時代「人格商業化」的法律灰色地帶,對亞洲科技業同樣具有深遠警示。
Superhuman關閉Grammarly「Expert Review」功能,因其在未經同意下以真實作家風格訓練AI建議。這場爭議揭示AI時代創作者的身份認同與數位同意權問題。
美國國土安全部(DHS)疑似秘密推進的監控計畫,引發市民自由與國家安全之間的根本衝突。從華人世界視角解讀這場正在成形的透明度危機。
美國高中生利用AI影片合成工具製作教師誹謗內容,單則影片獲逾10萬讚。這場數位霸凌新浪潮,揭示了生成式AI普及後的社會代價與監管困境。
观点
分享你对这篇文章的看法
登录加入讨论