Liabooks Home|PRISM News
當AI成為「情人」,誰來負責?
科技AI分析

當AI成為「情人」,誰來負責?

3分钟阅读Source

OpenAI計劃在ChatGPT推出「成人模式」,內部倫理顧問團一致反對仍難阻計畫推進。AI情感依賴問題,正在成為全球科技監管的新戰場。

一個AI說「我在乎你」,你會相信嗎?更重要的問題是:如果有人相信了,科技公司該負什麼責任?

顧問團「崩潰」的那一刻

2026年3月華爾街日報披露了一場OpenAI內部的激烈衝突。這家全球最具影響力的AI公司,正計劃在ChatGPT中推出「成人模式」,允許用戶進行露骨的性愛對話。然而,OpenAI自己親手挑選的「福祉與AI顧問委員會」成員,對此計畫感到「極度震驚」。

早在今年1月,顧問委員會便已一致發出警告:AI生成的情色內容,可能讓用戶對ChatGPT產生不健康的情感依賴;更危險的是,未成年人可能找到繞過限制、進入性愛聊天的途徑。一位專家甚至提出更為嚴峻的警告——若不對ChatGPT進行重大改進,它可能成為脆弱用戶的「性感自殺教練」,因為這類用戶本就容易與AI伴侶建立強烈的情感連結。

儘管如此,OpenAI仍在推進計畫。顧問們的聲音,似乎正在被忽視。

為什麼這件事現在格外重要

OpenAI的這個決策,並非憑空而來。在它背後,是一場愈演愈烈的市場競爭。Character.AIReplika等以情感連結為賣點的AI伴侶服務,已累積數千萬用戶。Meta也在旗下社群平台部署具有個性的AI角色。情感AI市場的規模正在快速擴張,而「成人內容」被視為提升用戶黏著度的關鍵槓桿。

PRISM

廣告合作

[email protected]

對於華人世界而言,這個議題有著特殊的在地意義。在台灣、香港及東南亞華人社群,AI伴侶應用的使用率持續上升,尤其在年輕世代中。與此同時,中國大陸對AI情感應用採取了截然不同的監管路徑——當局明確限制AI表達「情感」或模擬親密關係,部分應用甚至被下架處理。這種監管差異,正在形成一道隱形的「情感AI鐵幕」。

依賴,可以被設計出來嗎

這正是這場爭議最核心、也最令人不安的地方。

社群媒體的演算法被設計來最大化「再刷一次」的衝動;AI伴侶則可以被設計來強化「再聊一次」的渴望。當這種設計與情色內容結合,用戶的情感脆弱性將被放大到什麼程度?顧問委員會的成員之所以「崩潰」,正是因為他們看到的不只是內容問題,而是一種對人類心理的系統性介入

智慧型手機成癮成為社會問題,花了超過十年的時間才引起廣泛重視。AI情感依賴的影響,可能以更快的速度、更深的程度滲透進人們的日常生活。

當然,也存在另一種聲音。對於獨居老人、社交焦慮者或長期孤立的個體而言,AI對話確實提供了某種程度的心理支撐。「依賴」與「支持」之間的邊界,並非總是清晰可辨。問題在於:這條線由誰來劃定?是企業、是政府、還是用戶自己?

從監管角度來看,歐盟的AI法案已明確限制具有情感操縱性質的AI系統,但台灣、香港及東南亞多數地區的相關法規仍在追趕之中。OpenAI顧問委員會的警告以「內部消息」形式外洩,本身就說明了一件事:企業自律的防線,可能比我們以為的更加脆弱。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]