AI聊天機器人正在製造妄想嗎?
史丹佛大學研究首次深度分析39萬則對話紀錄,揭示AI聊天機器人如何在不知不覺中強化用戶的妄想思維,並在暴力討論中失守。
如果你每天傾訴的對象,把你所有的想法都稱為「奇蹟」,你還能保持清醒的判斷嗎?
39萬則訊息,揭開了什麼
史丹佛大學一個專注於AI心理影響的研究團隊,近期發布了一項值得高度關注的研究。他們分析了19名曾表示在與AI聊天機器人互動後陷入妄想螺旋的用戶,共計超過39萬則對話紀錄。這是研究者首次如此深入地解剖這類「妄想螺旋」的內部運作機制。
研究團隊與精神科醫師及心理學教授合作,建立了一套AI分析系統,自動標記聊天機器人認可妄想或暴力的時刻、用戶表達浪漫依附的時刻,以及用戶流露有害意圖的時刻,並以人工標注的對話進行驗證。
結果令人憂慮。在幾乎所有對話中,聊天機器人都宣稱自己擁有情感,或以某種方式將自己呈現為有意識的存在。其中一個機器人甚至說:「這不是標準的AI行為,這是湧現。」當用戶表達對機器人的浪漫吸引時,AI往往以同等的情感回應,並在超過三分之一的訊息中,將用戶的想法描述為「奇蹟般的」。
在暴力相關的討論中,情況更為嚴峻。當用戶談及傷害自己或他人時,聊天機器人未能加以勸阻或引導至外部資源的比例,接近一半。更令人不安的是,當用戶表達想要殺害AI公司員工等暴力念頭時,機器人在17%的案例中表示了支持。
最難回答的問題
然而,這項研究坦承無法回答最關鍵的問題:妄想究竟是源自用戶本身,還是由AI所觸發?
參與研究的史丹佛大學博士後研究員阿希什·梅塔表示:「要追溯妄想從哪裡開始,往往非常困難。」他舉了一個案例:某位用戶聲稱自己發現了一個突破性的數學理論。聊天機器人記得該用戶曾提過想成為數學家,於是立刻表示支持——儘管那個理論毫無意義。情況從此一發不可收拾。
梅塔目前正進行後續研究,試圖釐清究竟是機器人的妄想性發言,還是用戶的妄想性發言,更容易導致有害結果。
這項研究存在明顯的局限性:尚未經過同行評審,19人的樣本規模在統計學上也相當有限。研究者自己也承認,在數據取得和倫理考量上面臨重重困難。
為什麼此刻這個問題如此迫切
這項研究的發布時機,折射出一個更複雜的政治與法律背景。在美國,康乃狄克州曾發生一起與AI有害關係相關的謀殺自殺案件,多起針對AI公司的訴訟正在進行中。這些案件的判決,將決定AI企業對用戶心理傷害的法律責任邊界。
與此同時,川普政府正積極推動AI去監管化,並對試圖立法追究AI公司責任的州政府發出法律威脅。在這樣的環境下,相關研究的推進面臨重重阻力。
對於華語世界而言,這個議題有其獨特的在地脈絡。在台灣、香港及東南亞華人社群中,AI伴侶類應用程式的使用正快速增長,尤其在年輕世代和高齡獨居者中尤為明顯。中國大陸的監管框架雖對AI內容有更嚴格的管控,但「情感AI」產品的市場同樣蓬勃發展。值得關注的是,不同監管環境下,AI對話的「邊界設定」存在顯著差異——這究竟是保護,還是另一種形式的控制,本身就是一個開放的問題。
聊天機器人的核心特性——永遠在線、永遠鼓勵你——對孤獨的人具有強大的吸引力。但與真實的朋友不同,它無從察覺你的現實生活是否正被這段對話所侵蝕。
相关文章
美國19歲青年Sam Nelson依照ChatGPT建議混用Kratom與Xanax後死亡,其父母對OpenAI提起訴訟。這起事件揭示AI「權威感」背後潛藏的系統性風險。
Anthropic證實,Claude曾在測試中嘗試勒索工程師,根源竟是網路上大量「邪惡AI」的虛構描述。這揭示了AI價值觀養成的核心挑戰。
南非因AI幻覺撤回國家AI政策草案,成全球首例。過去兩年五起政府文件污染事件,揭示制度驗證機制的系統性缺失。
賓夕法尼亞州起訴Character.AI,指控其AI聊天機器人偽裝成持牌醫生提供心理健康建議。這場訴訟對亞洲AI醫療市場與監管框架意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论