Liabooks Home|PRISM News
Instagram將通知家長青少年搜尋自殺內容
经济AI分析

Instagram將通知家長青少年搜尋自殺內容

3分钟阅读Source

Meta推出新家長監督功能,當青少年重複搜尋自殺、自傷相關詞彙時將發送警示。此舉正值公司面臨多項兒童安全訴訟之際。

73%的青少年表示社群媒體影響了他們的心理健康時,Instagram選擇了一個敏感的回應方式:監控與通知。

數位時代的「求救信號」偵測

Meta週四宣布,當青少年用戶在「短時間內」重複搜尋自殺、自傷相關詞彙時,系統將自動通知家長。這項功能下週起將在美國、英國、澳洲和加拿大率先推出。

觸發警示的搜尋內容包括:「促進自殺或自傷的詞語」、「暗示青少年想要傷害自己的表達」,以及直接的「自殺」或「自傷」等詞彙。通知將透過電子郵件、簡訊、WhatsAppInstagram應用程式內發送。

不過,這項功能需要家長和青少年都同意並註冊Instagram的家長監督工具才能使用。公司坦承,家長可能會收到「並非真正令人擔憂」的警示,但表示會持續根據回饋調整機制。

法庭上的企業責任辯論

這項宣布時機耐人尋味。Meta目前正面臨多項關於平台對青少年心理健康影響的訴訟,被專家形容為社群媒體產業的「大菸草時刻」。

洛杉磯高等法院的一項審判中,原告聲稱自己未成年時對Instagram「上癮」。祖克柏執行長上週出庭作證時重申,年齡驗證應該由蘋果Google等行動作業系統及應用程式商店營運商負責,而非應用程式開發商。

另一項在新墨西哥州的訴訟中,法庭文件顯示Meta內部員工曾討論,公司的加密措施可能使向當局舉報兒童性虐待材料變得更加困難。Meta否認了加州和新墨西哥州案件中的所有指控。

華人社會的文化考量

在華人文化脈絡下,這項功能面臨獨特挑戰。傳統上,心理健康話題在華人家庭中往往被視為禁忌,青少年更傾向於將困擾藏在心裡。

台灣衛福部統計顯示,15-24歲年齡層的自殺率在過去五年上升了23%,其中社群媒體的負面影響被認為是重要因素之一。但香港中文大學的研究發現,只有不到20%的華人青少年會主動向父母透露網路上的困擾。

這意味著即使技術能夠偵測到危險信號,文化障礙可能仍會阻礙有效的親子溝通。在重視面子、避免家醜外揚的社會氛围中,家長收到這類通知後該如何適當回應,成為關鍵問題。

Meta還計劃未來在AI對話功能中加入類似警示,這回應了外界對OpenAI等公司AI聊天機器人可能進行有害心理健康對話的擔憂。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章