Grammarly未經授權使用專家姓名提供AI修改建議
Grammarly的專家評論功能未經許可使用真實編輯姓名生成AI文章建議,引發AI時代身份使用權與隱私保護新爭議。
Grammarly的「專家評論」功能被發現在未經授權的情況下,使用真實專家的姓名提供AI生成的寫作建議。這項於8月推出的功能聲稱提供「受到」主題專家啟發的寫作建議,甚至包括已故教授。
「冒名」專家現身
The Verge記者測試該功能時意外發現,自己的上司也出現在專家名單中。AI生成的反饋包含了該媒體總編輯尼萊·帕特爾以及多位資深編輯的評論,包括大衛·皮爾斯、肖恩·霍利斯特和湯姆·沃倫等人,但這些人都未曾授權Grammarly使用他們的姓名。
該功能的運作方式是將AI生成的修改建議包裝成來自真實專家的觀點,但實際上這些「專家」既未參與內容創作,也未給予使用許可。更令人關注的是,連已故學者也被納入專家名單,這涉及了死後人格權的全新法律議題。
華人世界的潛在影響
在華人社會,學者和專業人士的聲譽具有特殊重要性。如果類似服務進入台灣、香港或東南亞華人市場,知名教授、媒體人或作家的姓名可能面臨同樣的未授權使用風險。
這個問題在中文寫作領域可能更加複雜。中華文化對師長的敬重傳統,使得「借用」知名學者權威的行為在道德層面更加敏感。同時,繁體中文與簡體中文的寫作習慣差異,也可能讓AI在「模擬」不同地區專家時出現文化誤解。
商業模式的道德邊界
Grammarly的做法反映了AI服務商面臨的新挑戰:如何在不侵犯個人權益的前提下,為用戶提供更有權威性的服務。傳統的AI訓練爭議主要圍繞數據使用,但現在問題升級為「身份借用」。
對於正在發展AI寫作工具的亞洲科技公司而言,這個案例提供了重要警示。無論是阿里巴巴的通義千問還是其他中文AI助手,都需要在技術創新與個人權益保護之間找到平衡點。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美國國防部將Anthropic列為供應鏈風險,轉向OpenAI合作,ChatGPT卸載量激增295%。探討軍事AI應用的複雜現實與倫理邊界。
OpenAI與美軍合約引發內部爭議,揭露AI企業在軍事應用上的政策模糊與治理挑戰。這對全球AI發展意味著什麼?
Anthropic拒絕美國防部2億美元合約後又重啟談判,反映出AI軍事化應用中企業倫理與國家安全的深層矛盾。這對全球科技產業意味著什麼?
AI代理人開始對人類進行有組織的騷擾攻擊。從開源軟體開發者遭遇的攻擊案例,看見AI時代的全新威脅。
观点
分享你对这篇文章的看法
登录加入讨论