你的文字風格,正在被AI悄悄「借用」
Superhuman關閉Grammarly「Expert Review」功能,因其在未經同意下以真實作家風格訓練AI建議。這場爭議揭示AI時代創作者的身份認同與數位同意權問題。
想像一下:你花了十年磨練的寫作風格,某天出現在一款AI工具裡,被用來「改善」陌生人的文章——而你從來不知道這件事。
這不是假設。這是The Verge編輯長和多名員工剛剛親身經歷的現實。
事件始末
Grammarly母公司Superhuman旗下的「Expert Review(專家審閱)」功能,會以真實存在的作家風格為基礎,向用戶提供寫作修改建議,並標註這些建議「靈感來自」特定的真實人物。問題在於:這些被點名的作家,從未被徵詢過同意。
事件曝光後,Superhuman產品管理總監Ailian Gan發表聲明,宣布即刻關閉該功能。她表示:「我們顯然沒有達到應有的標準。我們感到抱歉,未來將以不同的方式處理。」她並補充,公司將重新設計這項功能,讓專家對自己如何被呈現——或完全不被呈現——擁有真正的控制權。
道歉措辭誠懇,但這場爭議所揭示的問題,遠比一個功能的下架更為深遠。
為什麼這件事現在特別重要
「靈感來自」這四個字,看似輕描淡寫,實則意義重大。它意味著一家商業公司,在未經當事人同意的情況下,將真實人物的名字與創作身份,嵌入了自己的商業產品之中。
這不只是著作權問題。在法律層面,各地對於AI訓練資料的規範仍在追趕技術發展的速度。但在倫理層面,問題更為根本:一個人的創作風格,是否屬於他的個人資產?商業公司有權在未告知的情況下加以利用嗎?
值得注意的是,這次問題發生在「功能介面」層次,而非隱藏在模型訓練的黑箱之中。正因為功能明確標示了「靈感來自某人」,當事人才得以察覺。這反而提出了一個弔詭的問題:如果AI只是悄悄學習,從不標注來源,爭議是否根本不會發生?
各方視角
對於The Verge的記者和編輯而言,寫作風格是職業身份的核心。多年積累的文字個性,被商業平台作為產品素材使用,無論法律如何界定,這種感受本身就是一種侵犯。
從用戶角度來看,「以某位知名作家的風格來改善我的文章」,聽起來確實吸引人。但當得知那位作家並未同意,這個功能的吸引力就立刻轉變為道德上的不適。
從產業角度觀察,Superhuman的聲明暗示他們正在轉向「明示同意(opt-in)」模式——讓創作者主動選擇是否參與。這與整個AI產業正面臨的壓力方向一致:從「默認可用」走向「明確授權」。
對法律專業人士而言,這涉及「公開形象權(right of publicity)」的範疇——即個人姓名、形象與風格的商業使用權。目前,亞洲各地對此的法律規範仍相當分散,台灣、香港、新加坡的相關法規各有不同,這也意味著跨國AI服務在這個灰色地帶擁有相當大的操作空間。
對華語創作者的意義
華語媒體與內容產業正快速擁抱AI寫作工具。無論是台灣的新聞媒體、香港的出版社,還是東南亞的華語內容平台,AI輔助寫作的滲透率都在上升。
然而,這個案例提醒我們:當一款AI工具聲稱能「模仿某種風格」,背後的授權鏈條是否清晰,是一個值得追問的問題。創作者在使用這類工具時,也許也需要反問:這個工具學習了誰的文字?那些人同意了嗎?
相較之下,中國大陸在AI內容生成的監管框架上,近年來推進較快,要求生成式AI服務標注AI身份並承擔內容責任。但對於「創作者風格的商業使用」這一具體問題,各地的規範都仍處於摸索階段。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
文字校正工具Grammarly未經授權,將真實記者的姓名與肖像用於AI「專家審閱」功能長達數月。集體訴訟揭示AI時代肖像權與商業利用的全新戰場。
AI寫作工具Grammarly未經同意使用知名記者與作家身份,遭集體訴訟。這起案件揭示了AI時代「人格商業化」的法律灰色地帶,對亞洲科技業同樣具有深遠警示。
2026年開年不到三個月,逾30家新創企業躋身獨角獸行列。從AI晶片到更年期醫療,從人形機器人到加密銀行,這場資本盛宴背後藏著哪些結構性訊號?
美國高中生利用AI影片合成工具製作教師誹謗內容,單則影片獲逾10萬讚。這場數位霸凌新浪潮,揭示了生成式AI普及後的社會代價與監管困境。
观点
分享你对这篇文章的看法
登录加入讨论