Liabooks Home|PRISM News
ChatGPT用戶暴力貼文遭忽視,數月後真的開槍掃射
科技AI分析

ChatGPT用戶暴力貼文遭忽視,數月後真的開槍掃射

2分钟阅读Source

OpenAI員工曾對ChatGPT用戶的暴力言論示警,但公司高層拒絕通報當局。該用戶後來真的在加拿大發動槍擊案,引發AI企業責任邊界的討論。

今年6月,一名ChatGPT用戶在與AI對話中詳細描述槍枝暴力,觸發了系統的自動審查機制。OpenAI多名員工擔心這可能是現實暴力的前兆,強烈建議公司高層通報執法部門,但遭到拒絕。數月後,這名用戶傑西·范·魯特塞拉爾真的在英屬哥倫比亞省滕布勒里奇發動大規模槍擊事件。

被忽視的紅色警報

根據華爾街日報報導,OpenAI高層認為魯特塞拉爾的貼文並未構成「可信且迫在眉睫的威脅」。這個決定暴露了AI企業面臨的全新道德難題:當機器學會識別人類的危險信號時,企業該承擔多少預防責任?

與傳統社交媒體不同,ChatGPT這類對話AI能引導用戶進行更深層、更私密的交流。用戶往往會向AI傾訴內心最黑暗的想法,就像對待心理醫師一樣。這種一對一的互動模式,讓AI成為人類心理狀態的獨特觀察者。

從技術角度看,每天處理數百萬次對話的AI系統,要準確判斷哪些言論構成真實威脅確實困難。但員工的直覺最終被證明是對的——這讓人不禁思考,人工判斷與演算法篩選之間的平衡點在哪裡?

華人世界的思考角度

在華人社會,「預防勝於治療」的觀念根深蒂固。無論是台灣的社會安全網,還是新加坡的預防性治理,都傾向於在問題爆發前就採取行動。從這個角度看,OpenAI的決定顯得過於被動。

然而,香港和台灣等地對隱私權的重視,也讓這個問題變得複雜。AI企業要如何在保護用戶隱私與維護社會安全之間找到平衡?特別是在政治敏感的環境中,「通報當局」這個動作本身就可能引發爭議。

算法責任的新邊界

這起事件揭示了AI時代的一個核心問題:當機器比人類更善於識別危險信號時,誰該為預防失敗負責?

傳統上,科技平台享有「中介者免責」的保護,只要移除違規內容即可。但AI不是被動的平台,它主動參與對話、引導思考,甚至可能影響用戶的行為模式。這種主動性是否意味著更大的責任?

更複雜的是,AI企業現在擁有了前所未有的預測能力。如果演算法能夠識別暴力傾向,那麼不採取行動是否等同於間接縱容?這個問題沒有標準答案,但需要全社會共同思考。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章