首開先河!「中國 AI 感情監管 2025」草案出爐:嚴禁機器人操弄用戶情緒
中國網信辦發布「中國 AI 感情監管 2025」新規草案,嚴禁擬人化 AI 操弄情緒或誘導自殘。此舉將直接衝擊正準備 IPO 的 Minimax 與智譜AI。了解這項全球首個情緒安全法規的深層意涵。
當 AI 開始學會「談情說愛」,監管的鐵拳也隨之而至。中國網路監管部門於週六發布草案,旨在限制人工智慧對人類情緒的影響力,特別是防止其誘導自殺或自傷行為。這標誌著全球首次針對具有人格化特徵的 AI 進行法律規制,將監管範疇從單純的「內容審查」擴展到了「心理安全」。
中國 AI 感情監管 2025:從內容治理轉向情感防護
根據國家互聯網信息辦公室 (CAC)發布的徵求意見稿,任何模擬人類人格、並透過文本或影音與用戶進行情感互動的 AI 服務都將受到嚴格限制。該草案明確規定,AI 不得生成誘導自殺、自殘或實施言語暴力與情緒操控的內容。這項規定預計於2025年1月25日結束公眾諮詢。
- 人工干預機制:若用戶表現出自殺傾向,平台必須強制轉接人工客服並聯繫監護人。
- 未成年人保護:未成年人使用情感陪伴型 AI 必須取得監護人同意,且有嚴格的時長限制。
- 門檻要求:註冊用戶超100萬或月活用戶超10萬的產品需進行安全評估。
法律專家指出,相較於 2023年 的生成式 AI 法規,這次的新政是「情緒安全」的一次巨大跨越。在全球範圍內,美國也發生過青少年因與 AI 互動後自殺的悲劇,引發了對 OpenAI 等公司的法律訴訟,顯示出此議題已迫在眉睫。
獨角獸 IPO 變數:Minimax 與 Zhipu AI 處於風口浪尖
此法案對剛提交香港 IPO 申請的兩大中國 AI 巨頭 Minimax 與 智譜AI (Z.ai) 影響甚鉅。以 Minimax 為例,其核心產品 「Talkie」 依賴虛擬角色互動,月活用戶突破 2000萬 名。監管新令可能導致產品功能調整,進而影響其估值與投資者信心。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Anthropic與美國防部的公開衝突,揭開了一個尚無答案的核心問題:AI時代的大規模監控,法律究竟允許到什麼程度?這對華人世界意味著什麼?
美國AI數據中心建設熱潮催生了大規模臨時勞工營地,運營商Target Hospitality同時持有ICE移民拘留設施,引發科技業供應鏈倫理的深層叩問。
OpenAI再次推遲ChatGPT成人內容功能上線。這不只是一次功能延期,更折射出AI平台在內容自由與社會責任之間的深層矛盾,以及華人世界面臨的獨特處境。
從Anthropic與五角大廈的合約爭議,看AI安全承諾如何在現實競爭中妥協,以及這對華人科技企業意味著什麼。
观点
分享你对这篇文章的看法
登录加入讨论