當AI成為「情人」,誰來負責?
OpenAI計劃在ChatGPT推出「成人模式」,內部倫理顧問團一致反對仍難阻計畫推進。AI情感依賴問題,正在成為全球科技監管的新戰場。
一個AI說「我在乎你」,你會相信嗎?更重要的問題是:如果有人相信了,科技公司該負什麼責任?
顧問團「崩潰」的那一刻
2026年3月,華爾街日報披露了一場OpenAI內部的激烈衝突。這家全球最具影響力的AI公司,正計劃在ChatGPT中推出「成人模式」,允許用戶進行露骨的性愛對話。然而,OpenAI自己親手挑選的「福祉與AI顧問委員會」成員,對此計畫感到「極度震驚」。
早在今年1月,顧問委員會便已一致發出警告:AI生成的情色內容,可能讓用戶對ChatGPT產生不健康的情感依賴;更危險的是,未成年人可能找到繞過限制、進入性愛聊天的途徑。一位專家甚至提出更為嚴峻的警告——若不對ChatGPT進行重大改進,它可能成為脆弱用戶的「性感自殺教練」,因為這類用戶本就容易與AI伴侶建立強烈的情感連結。
儘管如此,OpenAI仍在推進計畫。顧問們的聲音,似乎正在被忽視。
為什麼這件事現在格外重要
OpenAI的這個決策,並非憑空而來。在它背後,是一場愈演愈烈的市場競爭。Character.AI、Replika等以情感連結為賣點的AI伴侶服務,已累積數千萬用戶。Meta也在旗下社群平台部署具有個性的AI角色。情感AI市場的規模正在快速擴張,而「成人內容」被視為提升用戶黏著度的關鍵槓桿。
對於華人世界而言,這個議題有著特殊的在地意義。在台灣、香港及東南亞華人社群,AI伴侶應用的使用率持續上升,尤其在年輕世代中。與此同時,中國大陸對AI情感應用採取了截然不同的監管路徑——當局明確限制AI表達「情感」或模擬親密關係,部分應用甚至被下架處理。這種監管差異,正在形成一道隱形的「情感AI鐵幕」。
依賴,可以被設計出來嗎
這正是這場爭議最核心、也最令人不安的地方。
社群媒體的演算法被設計來最大化「再刷一次」的衝動;AI伴侶則可以被設計來強化「再聊一次」的渴望。當這種設計與情色內容結合,用戶的情感脆弱性將被放大到什麼程度?顧問委員會的成員之所以「崩潰」,正是因為他們看到的不只是內容問題,而是一種對人類心理的系統性介入。
智慧型手機成癮成為社會問題,花了超過十年的時間才引起廣泛重視。AI情感依賴的影響,可能以更快的速度、更深的程度滲透進人們的日常生活。
當然,也存在另一種聲音。對於獨居老人、社交焦慮者或長期孤立的個體而言,AI對話確實提供了某種程度的心理支撐。「依賴」與「支持」之間的邊界,並非總是清晰可辨。問題在於:這條線由誰來劃定?是企業、是政府、還是用戶自己?
從監管角度來看,歐盟的AI法案已明確限制具有情感操縱性質的AI系統,但台灣、香港及東南亞多數地區的相關法規仍在追趕之中。OpenAI顧問委員會的警告以「內部消息」形式外洩,本身就說明了一件事:企業自律的防線,可能比我們以為的更加脆弱。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
OpenAI與美國五角大廈簽署機密環境AI使用協議,生成式AI首次被用於伊朗軍事行動的目標優先排序。這對中美科技競爭與亞洲地緣政治意味著什麼?
大英百科全書與韋氏辭典控告OpenAI未經授權使用其著作訓練AI,並指GPT-4能逐字輸出其內容。這場訴訟將如何重塑AI產業的遊戲規則?對華人世界意味著什麼?
2025年底至2026年初,無程式碼AI代理工具大量湧現,自主AI進入企業核心流程。當機器開始自主決策,誰來負責?亞洲企業又該如何因應這場治理危機?
OpenAI即將為ChatGPT推出成人內容功能,初期僅限文字。誰來定義AI生成內容的邊界?這對亞洲市場與華人世界意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论