你的文字風格,正在被AI悄悄「借用」
Superhuman關閉Grammarly「Expert Review」功能,因其在未經同意下以真實作家風格訓練AI建議。這場爭議揭示AI時代創作者的身份認同與數位同意權問題。
想像一下:你花了十年磨練的寫作風格,某天出現在一款AI工具裡,被用來「改善」陌生人的文章——而你從來不知道這件事。
這不是假設。這是The Verge編輯長和多名員工剛剛親身經歷的現實。
事件始末
Grammarly母公司Superhuman旗下的「Expert Review(專家審閱)」功能,會以真實存在的作家風格為基礎,向用戶提供寫作修改建議,並標註這些建議「靈感來自」特定的真實人物。問題在於:這些被點名的作家,從未被徵詢過同意。
事件曝光後,Superhuman產品管理總監Ailian Gan發表聲明,宣布即刻關閉該功能。她表示:「我們顯然沒有達到應有的標準。我們感到抱歉,未來將以不同的方式處理。」她並補充,公司將重新設計這項功能,讓專家對自己如何被呈現——或完全不被呈現——擁有真正的控制權。
道歉措辭誠懇,但這場爭議所揭示的問題,遠比一個功能的下架更為深遠。
為什麼這件事現在特別重要
「靈感來自」這四個字,看似輕描淡寫,實則意義重大。它意味著一家商業公司,在未經當事人同意的情況下,將真實人物的名字與創作身份,嵌入了自己的商業產品之中。
這不只是著作權問題。在法律層面,各地對於AI訓練資料的規範仍在追趕技術發展的速度。但在倫理層面,問題更為根本:一個人的創作風格,是否屬於他的個人資產?商業公司有權在未告知的情況下加以利用嗎?
值得注意的是,這次問題發生在「功能介面」層次,而非隱藏在模型訓練的黑箱之中。正因為功能明確標示了「靈感來自某人」,當事人才得以察覺。這反而提出了一個弔詭的問題:如果AI只是悄悄學習,從不標注來源,爭議是否根本不會發生?
各方視角
對於The Verge的記者和編輯而言,寫作風格是職業身份的核心。多年積累的文字個性,被商業平台作為產品素材使用,無論法律如何界定,這種感受本身就是一種侵犯。
從用戶角度來看,「以某位知名作家的風格來改善我的文章」,聽起來確實吸引人。但當得知那位作家並未同意,這個功能的吸引力就立刻轉變為道德上的不適。
從產業角度觀察,Superhuman的聲明暗示他們正在轉向「明示同意(opt-in)」模式——讓創作者主動選擇是否參與。這與整個AI產業正面臨的壓力方向一致:從「默認可用」走向「明確授權」。
對法律專業人士而言,這涉及「公開形象權(right of publicity)」的範疇——即個人姓名、形象與風格的商業使用權。目前,亞洲各地對此的法律規範仍相當分散,台灣、香港、新加坡的相關法規各有不同,這也意味著跨國AI服務在這個灰色地帶擁有相當大的操作空間。
對華語創作者的意義
華語媒體與內容產業正快速擁抱AI寫作工具。無論是台灣的新聞媒體、香港的出版社,還是東南亞的華語內容平台,AI輔助寫作的滲透率都在上升。
然而,這個案例提醒我們:當一款AI工具聲稱能「模仿某種風格」,背後的授權鏈條是否清晰,是一個值得追問的問題。創作者在使用這類工具時,也許也需要反問:這個工具學習了誰的文字?那些人同意了嗎?
相較之下,中國大陸在AI內容生成的監管框架上,近年來推進較快,要求生成式AI服務標注AI身份並承擔內容責任。但對於「創作者風格的商業使用」這一具體問題,各地的規範都仍處於摸索階段。
相关文章
AI正讓網路詐騙更快更廉價,同時滲透醫療現場。但患者真的因此受益了嗎?從中美科技角力到亞洲社會衝擊,一次看清這場變局。
OpenAI在加拿大槍擊案發生前,已停用嫌疑人帳號並內部討論是否通報警方,最終選擇沉默。執行長阿特曼公開道歉,但這場悲劇揭露的,是AI企業掌握危險信號卻無法律義務通報的制度空白。
美國數據分析巨頭Palantir的員工,因公司深度參與移民驅逐行動及疑似涉及伊朗學校空襲,開始在內部公開質疑公司的道德立場。這場企業內部的倫理風暴,對科技業意味著什麼?
Meta宣布將收集員工的鍵盤輸入與滑鼠操作作為AI訓練資料。這不只是一家公司的決策,而是整個科技業對「數據飢渴」的縮影。
观点
分享你对这篇文章的看法
登录加入讨论