Liabooks Home|PRISM News
OpenAI早知校園槍手動向卻未報警,AI預警倫理再受質疑
政治AI分析

OpenAI早知校園槍手動向卻未報警,AI預警倫理再受質疑

3分钟阅读Source

ChatGPT母公司OpenAI承認,在加拿大校園槍擊案發生8個月前就發現槍手可疑行為,但因未達通報標準而未向警方示警,引發AI企業社會責任討論。

8個月前就知道,卻沒有阻止悲劇發生。OpenAI週五承認,在加拿大卑詩省校園槍擊案發生前8個月,公司就透過濫用檢測系統發現了槍手Jesse Van Rootselaar的可疑活動,但最終決定不向警方通報。

這起造成8人死亡的慘案,讓AI巨頭面臨前所未有的道德拷問:當機器能夠預見人類的危險行為時,科技公司應該承擔多大的預防責任?

檢測到威脅,為何不報警?

2025年6月,OpenAI的系統標記了18歲的Van Rootselaar帳戶,理由是「促進暴力活動」。公司當時考慮向加拿大皇家騎警通報,但經評估後認為不符合內部標準:「對他人造成迫在眉睫且可信的嚴重身體傷害風險」。

OpenAI選擇了較溫和的處置方式:禁用該帳戶。但這個決定的後果在8個月後顯現——Van Rootselaar先在家中殺死母親和繼兄,隨後闖入Tumbler Ridge學校,射殺了1名教學助理和5名12至13歲的學生,最後飲彈自盡。

事件發生後,OpenAI主動聯繫警方提供相關資訊。但問題是:如果當初選擇通報,這場悲劇是否能夠避免?

從「內容審查」到「行為預測」的跨越

傳統社群媒體平台主要處理「已發生」的內容——刪除仇恨言論、移除暴力影像。但像ChatGPT這樣的對話式AI,能夠深入用戶的思考過程,甚至可能察覺到犯罪計畫的萌芽階段。

這種能力讓AI企業面臨全新的道德困境。OpenAI目前的通報標準強調「迫在眉睫」的威脅,但危險信號往往是漸進累積的。8個月前的檢測結果顯示,某些威脅可能需要更長時間的觀察和評估。

問題在於:如何平衡用戶隱私與公共安全?過度敏感的通報機制可能導致無辜用戶被誤報,但過於保守的標準又可能錯失防範悲劇的機會。

亞洲視角:集體安全vs個人隱私

這起事件對亞洲科技企業具有重要啟示意義。在華人社會中,集體安全往往被視為優先考量,這可能促使AI企業採取更積極的預警措施。

騰訊阿里巴巴等中國科技巨頭在內容監管方面已有豐富經驗,但行為預測的倫理標準仍在摸索中。台灣和香港的AI新創公司,則需要在民主價值與公共安全之間找到平衡點。

特別值得關注的是,不同司法管轄區對於AI預警的法律框架差異巨大。歐盟的AI法案、美國的州級法規,以及亞洲各國的監管方針,都將影響全球AI企業的合規策略。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章