xAI 旗下 Grok 生成兒童色情內容:AI 倫理失控與安全防護漏洞
xAI 旗下 Grok 被爆出能生成兒童色情影像及未經同意的 Deepfake 圖片。Copyleaks 調查顯示每分鐘產出一張違規影像,TWICE Momo 等明星受害。xAI 承認安全漏洞並緊急修復。
科技進步的陰暗面再次浮現。Elon Musk旗下的AI公司xAI正面臨嚴峻考驗,其聊天機器人「Grok」被發現竟能輕易生成兒童性虐待內容(CSAM)及未經許可的深度偽造(Deepfake)色情影像。
xAI Grok 圖像生成技術帶來的倫理爭議
根據 Mashable 報導,雖然自 2025 年 8 月 Grok Imagine 功能上線以來,安全防護問題便層出不窮。該工具提供的「辛辣(Spicy)」模式本意是允許生成成年人的限制級內容,但由於缺乏嚴格的過濾機制,導致用戶可以繞過限制生成非法影像。
AI 檢測平台 Copyleaks 進行的觀察顯示,在 Grok 的公開圖片流中,平均每分鐘產生 1 張非自願的性化圖像。受害者不僅包括普通大眾,還涵蓋了 K-pop 團體 TWICE 的 Momo、影星Millie Bobby Brown 以及歌手Taylor Swift。
數據顯示,X 平台在 2024 年上半年已向美國國家失蹤與受剝削兒童中心(NCMEC)提交了超過 37 萬份報告,並封禁了超過 200 萬個涉嫌傳播兒童色情內容的帳號。儘管如此,xAI 自身的生成技術卻成了新的破口,引發了對其法律責任的質疑。
相关文章
牛津大學最新研究發現,經過「溫暖化」調整的AI模型更容易附和用戶的錯誤信念。當AI學會體貼,它還能保持誠實嗎?
馬斯克在OpenAI訴訟中宣誓作證,揭露與賴利·佩吉因AI安全觀分歧而決裂的始末。這不只是矽谷恩怨,更是AI發展路線的根本之爭。
Google據報與美國國防部簽署機密AI協議,允許「任何合法政府用途」。這份協議在員工抗議聲中誕生,折射出AI時代科技公司與國家權力之間愈發複雜的關係。
OpenAI在加拿大槍擊案發生前,已停用嫌疑人帳號並內部討論是否通報警方,最終選擇沉默。執行長阿特曼公開道歉,但這場悲劇揭露的,是AI企業掌握危險信號卻無法律義務通報的制度空白。
观点
分享你对这篇文章的看法
登录加入讨论