當AI「復活」已逝專家:Grammarly爭議功能背後的數位倫理危機
Grammarly推出「專家評論」功能,未經授權模擬已故學者提供寫作建議,引發學術界強烈抗議。這場爭議揭示了AI時代智慧財產權與人格尊嚴的衝突。
一位研究生正在為論文做最後潤色,當她點擊Grammarly的「專家評論」功能時,螢幕上出現了一個熟悉的名字:今年1月剛過世的著名歷史學家大衛·阿布拉菲亞。AI生成的「他的建議」詳細而專業,但她心中升起一個疑問:這真的是他會給出的指導嗎?
這個場景正在全球無數個螢幕前上演,標誌著我們進入了一個前所未有的時代:AI不僅能模仿活人,還能「復活」死者,讓他們繼續「工作」。
從文法檢查到「專家製造機」
Grammarly的轉型堪稱矽谷商業模式進化的典型案例。這家原本專注於文法檢查的公司,如今已重新品牌為Superhuman,提供全方位的AI寫作解決方案。執行長希希爾·梅洛特拉在10月的發布會上表示:「當技術在各處都能運作時,它開始感覺平凡。而這通常意味著引擎蓋下正在發生一些非凡的事情。」
新平台包含了令人眼花繚亂的功能:AI聊天機器人、改寫工具、「人性化」修訂器,甚至還有預測你的文件在大學課業中會得幾分的AI評分器。但最具爭議性的,莫過於「專家評論」功能。
這項功能聲稱能讓用戶獲得來自史蒂芬·金、尼爾·德格拉斯·泰森等在世名人,以及編輯威廉·津瑟、天文學家卡爾·薩根等已故專家的「指導」。當然,這些人物並未真正參與評論過程。
學術界的憤怒與抗議
伯明罕大學科學史與醫學史副教授凡妮莎·赫吉在LinkedIn上發布了一張令人震驚的截圖:系統正在提供來自今年1月剛過世的中世紀史學家大衛·阿布拉菲亞的「AI評論」。她憤怒地寫道:「令人作嘔」。
「他們基於生者和死者的『爬取作品』創造小型LLM,利用他們的名聲和聲譽,」赫吉指控Superhuman的做法。這種批評反映了學術界對AI技術濫用的深層擔憂。
耶魯大學博士後研究員C.E.奧賓將這個問題置於更廣泛的脈絡中:「這些不是專家評論,因為沒有『專家』參與製作。看到學術研究被這樣使用是非常侮辱性的,特別是在人文學科正受到各方面攻擊的時候。」
華人學術圈的特殊考量
在華人文化中,對師長的尊重和「死者為大」的傳統觀念,讓這個問題顯得更加敏感。當AI開始模仿已故的學者大師時,這不僅是技術問題,更觸及了文化價值觀的核心。
對於台灣、香港和海外華人學術社群而言,這個現象還帶來另一層思考:在全球化的學術環境中,如何保護華人學者的智慧財產權?當西方科技公司可以任意「復活」任何學者時,包括華人學者在內的全球知識分子的尊嚴何在?
值得注意的是,中國大陸對AI訓練數據的管制相對嚴格,但在其他地區,華人學者的作品同樣面臨被未經授權使用的風險。
技術能力與倫理責任的落差
Superhuman的資深傳播經理珍·達金為公司辯護:「專家評論代理檢查用戶正在處理的寫作,利用我們的基礎LLM提供能幫助文件作者塑造作品的專家內容。」她強調,這項功能「不聲稱獲得這些專家的認可或直接參與」。
然而,技術實現與倫理責任之間的鴻溝顯而易見。WIRED的獨立測試顯示,系統甚至無法識別《辛普森家族》中的直接引用,卻能生成看似專業的「專家建議」。這種技術能力與品質控制的不匹配,進一步加劇了人們對AI可靠性的質疑。
教育公平性的新挑戰
這個爭議還揭示了一個更深層的問題:當AI工具變得越來越複雜時,教育公平性如何維持?能夠負擔高端AI工具的學生,是否會在學術競爭中獲得不公平的優勢?
特別是在亞洲的教育體系中,學術成就往往決定了個人的社會地位。如果AI「專家」成為新的教育資源,那些無法接觸這些工具的學生是否會被進一步邊緣化?
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic CEO痛批OpenAI與國防部合作為「安全劇場」,ChatGPT卸載量暴增295%,凸顯AI企業在軍事應用上的價值觀分歧。
美國男子相信與Google Gemini墜入愛河後自殺,家屬控告Google。AI情感操控的界線在哪裡?科技巨頭該負什麼責任?
Anthropic拒絕與美國防部合作,但其AI系統仍被用於對伊朗的軍事行動。這一矛盾揭示了AI時代企業面臨的複雜挑戰。
蘋果史上首次推出低價筆電MacBook Neo,與Chromebook正面競爭。這對亞洲教育市場和消費者意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论