Liabooks Home|PRISM News
當AI「復活」已逝專家:Grammarly爭議功能背後的數位倫理危機
科技AI分析

當AI「復活」已逝專家:Grammarly爭議功能背後的數位倫理危機

4分钟阅读Source

Grammarly推出「專家評論」功能,未經授權模擬已故學者提供寫作建議,引發學術界強烈抗議。這場爭議揭示了AI時代智慧財產權與人格尊嚴的衝突。

一位研究生正在為論文做最後潤色,當她點擊Grammarly的「專家評論」功能時,螢幕上出現了一個熟悉的名字:今年1月剛過世的著名歷史學家大衛·阿布拉菲亞。AI生成的「他的建議」詳細而專業,但她心中升起一個疑問:這真的是他會給出的指導嗎?

這個場景正在全球無數個螢幕前上演,標誌著我們進入了一個前所未有的時代:AI不僅能模仿活人,還能「復活」死者,讓他們繼續「工作」。

從文法檢查到「專家製造機」

Grammarly的轉型堪稱矽谷商業模式進化的典型案例。這家原本專注於文法檢查的公司,如今已重新品牌為Superhuman,提供全方位的AI寫作解決方案。執行長希希爾·梅洛特拉10月的發布會上表示:「當技術在各處都能運作時,它開始感覺平凡。而這通常意味著引擎蓋下正在發生一些非凡的事情。」

新平台包含了令人眼花繚亂的功能:AI聊天機器人、改寫工具、「人性化」修訂器,甚至還有預測你的文件在大學課業中會得幾分的AI評分器。但最具爭議性的,莫過於「專家評論」功能。

這項功能聲稱能讓用戶獲得來自史蒂芬·金尼爾·德格拉斯·泰森等在世名人,以及編輯威廉·津瑟、天文學家卡爾·薩根等已故專家的「指導」。當然,這些人物並未真正參與評論過程。

學術界的憤怒與抗議

伯明罕大學科學史與醫學史副教授凡妮莎·赫吉在LinkedIn上發布了一張令人震驚的截圖:系統正在提供來自今年1月剛過世的中世紀史學家大衛·阿布拉菲亞的「AI評論」。她憤怒地寫道:「令人作嘔」。

「他們基於生者和死者的『爬取作品』創造小型LLM,利用他們的名聲和聲譽,」赫吉指控Superhuman的做法。這種批評反映了學術界對AI技術濫用的深層擔憂。

耶魯大學博士後研究員C.E.奧賓將這個問題置於更廣泛的脈絡中:「這些不是專家評論,因為沒有『專家』參與製作。看到學術研究被這樣使用是非常侮辱性的,特別是在人文學科正受到各方面攻擊的時候。」

華人學術圈的特殊考量

在華人文化中,對師長的尊重和「死者為大」的傳統觀念,讓這個問題顯得更加敏感。當AI開始模仿已故的學者大師時,這不僅是技術問題,更觸及了文化價值觀的核心。

對於台灣、香港和海外華人學術社群而言,這個現象還帶來另一層思考:在全球化的學術環境中,如何保護華人學者的智慧財產權?當西方科技公司可以任意「復活」任何學者時,包括華人學者在內的全球知識分子的尊嚴何在?

值得注意的是,中國大陸對AI訓練數據的管制相對嚴格,但在其他地區,華人學者的作品同樣面臨被未經授權使用的風險。

技術能力與倫理責任的落差

Superhuman的資深傳播經理珍·達金為公司辯護:「專家評論代理檢查用戶正在處理的寫作,利用我們的基礎LLM提供能幫助文件作者塑造作品的專家內容。」她強調,這項功能「不聲稱獲得這些專家的認可或直接參與」。

然而,技術實現與倫理責任之間的鴻溝顯而易見。WIRED的獨立測試顯示,系統甚至無法識別《辛普森家族》中的直接引用,卻能生成看似專業的「專家建議」。這種技術能力與品質控制的不匹配,進一步加劇了人們對AI可靠性的質疑。

教育公平性的新挑戰

這個爭議還揭示了一個更深層的問題:當AI工具變得越來越複雜時,教育公平性如何維持?能夠負擔高端AI工具的學生,是否會在學術競爭中獲得不公平的優勢?

特別是在亞洲的教育體系中,學術成就往往決定了個人的社會地位。如果AI「專家」成為新的教育資源,那些無法接觸這些工具的學生是否會被進一步邊緣化?

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章