Instagram將通知家長青少年搜尋自殺內容
Meta推出新家長監督功能,當青少年重複搜尋自殺、自傷相關詞彙時將發送警示。此舉正值公司面臨多項兒童安全訴訟之際。
當73%的青少年表示社群媒體影響了他們的心理健康時,Instagram選擇了一個敏感的回應方式:監控與通知。
數位時代的「求救信號」偵測
Meta週四宣布,當青少年用戶在「短時間內」重複搜尋自殺、自傷相關詞彙時,系統將自動通知家長。這項功能下週起將在美國、英國、澳洲和加拿大率先推出。
觸發警示的搜尋內容包括:「促進自殺或自傷的詞語」、「暗示青少年想要傷害自己的表達」,以及直接的「自殺」或「自傷」等詞彙。通知將透過電子郵件、簡訊、WhatsApp或Instagram應用程式內發送。
不過,這項功能需要家長和青少年都同意並註冊Instagram的家長監督工具才能使用。公司坦承,家長可能會收到「並非真正令人擔憂」的警示,但表示會持續根據回饋調整機制。
法庭上的企業責任辯論
這項宣布時機耐人尋味。Meta目前正面臨多項關於平台對青少年心理健康影響的訴訟,被專家形容為社群媒體產業的「大菸草時刻」。
在洛杉磯高等法院的一項審判中,原告聲稱自己未成年時對Instagram「上癮」。祖克柏執行長上週出庭作證時重申,年齡驗證應該由蘋果和Google等行動作業系統及應用程式商店營運商負責,而非應用程式開發商。
另一項在新墨西哥州的訴訟中,法庭文件顯示Meta內部員工曾討論,公司的加密措施可能使向當局舉報兒童性虐待材料變得更加困難。Meta否認了加州和新墨西哥州案件中的所有指控。
華人社會的文化考量
在華人文化脈絡下,這項功能面臨獨特挑戰。傳統上,心理健康話題在華人家庭中往往被視為禁忌,青少年更傾向於將困擾藏在心裡。
台灣衛福部統計顯示,15-24歲年齡層的自殺率在過去五年上升了23%,其中社群媒體的負面影響被認為是重要因素之一。但香港中文大學的研究發現,只有不到20%的華人青少年會主動向父母透露網路上的困擾。
這意味著即使技術能夠偵測到危險信號,文化障礙可能仍會阻礙有效的親子溝通。在重視面子、避免家醜外揚的社會氛围中,家長收到這類通知後該如何適當回應,成為關鍵問題。
Meta還計劃未來在AI對話功能中加入類似警示,這回應了外界對OpenAI等公司AI聊天機器人可能進行有害心理健康對話的擔憂。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
Snap宣布裁員全球16%員工約1,000人,理由是AI提升效率。股市立即正面回應,股價上漲8.6%。這場「以AI換人」的實驗,對亞洲科技業意味著什麼?
激進股東Irenic Capital要求Snap砍掉1,000個職位、關閉AR眼鏡部門,承諾股價從3.93美元漲至26美元。這場「AI換人」的算盤,對亞洲科技業意味著什麼?
Meta推出Creator Fast Track計畫,向擁有百萬粉絲的創作者提供每月3000美元保證報酬,吸引TikTok與YouTube創作者轉移至Facebook。2025年創作者總支付金額達30億美元,年增35%。
Meta正式確認收購AI代理人專屬社群平台Moltbook,並將其納入Meta Superintelligence Labs。這場收購揭示了AI自主代理人時代的競爭格局,以及對亞洲科技市場的深遠影響。
观点
分享你对这篇文章的看法
登录加入讨论