부모에게 알림이 간다면, 아이들은 어디로 갈까
인스타그램이 자해 검색 시 부모 알림 기능을 도입하지만, 근본적 해결책인지 의문이 제기되고 있다. 청소년 정신건강 보호의 새로운 접근법을 살펴본다.
90초마다 한 번씩 일어나는 일
미국에서는 90초마다 한 명의 청소년이 자살을 시도한다. 인스타그램이 이번 주 발표한 새로운 알림 시스템은 이런 현실에 대한 메타의 답변이다. 자녀가 자해나 자살 관련 용어를 반복 검색하면 부모에게 알림을 보내겠다는 것.
하지만 정작 중요한 질문은 다른 곳에 있다. 알림을 받은 부모는 무엇을 해야 할까? 그리고 감시당한다는 걸 안 아이들은 어디로 갈까?
법정에서 나온 불편한 진실
이번 발표의 배경에는 메타를 상대로 한 집단소송이 있다. 이번 주 캘리포니아 연방법원에서 열린 공판에서 아담 모세리 인스타그램 대표는 검찰의 집중 추궁을 받았다. 청소년 대상 누드 필터 같은 기본적인 안전 기능조차 늦장 대응했다는 이유에서다.
더 충격적인 건 LA 카운티 법원에서 공개된 메타 내부 연구 결과다. 부모 감독과 통제 기능이 아이들의 소셜미디어 중독적 사용에 거의 영향을 주지 못했다는 것. 오히려 스트레스를 받는 아이들일수록 소셜미디어 사용 조절에 더 어려움을 겪었다.
그런데도 메타는 '부모 알림'을 해답으로 내놨다.
전문가들의 엇갈린 시선
정신건강 전문가들의 반응은 복잡하다. 한국청소년상담복지개발원의 한 관계자는 "조기 개입의 기회를 제공한다는 점에서 의미가 있다"면서도 "부모-자녀 관계가 이미 어려운 상황에서는 오히려 소통의 벽을 높일 수 있다"고 우려했다.
반면 일부 교육 전문가들은 환영하는 분위기다. "아이가 위험 신호를 보낼 때 부모가 모르고 지나가는 경우가 너무 많다"는 것이 이들의 논리다.
하지만 정작 당사자인 청소년들은 어떻게 생각할까? 미국의 한 청소년 단체는 "감시는 신뢰를 깬다"며 반발했다. "힘들 때 도움을 요청하는 대신 숨게 만들 뿐"이라는 지적이다.
한국에서는 어떻게 될까
인스타그램의 이 기능은 우선 미국, 영국, 호주, 캐나다에서 다음 주부터 시작되고, 올해 말 다른 지역으로 확대될 예정이다. 한국도 포함될 가능성이 높다.
문제는 한국의 특수한 상황이다. 카카오톡이나 네이버 같은 국내 플랫폼들은 아직 이런 기능이 없다. 만약 인스타그램만 부모 알림을 보낸다면, 아이들은 단순히 다른 플랫폼으로 이동할 수도 있다.
또한 한국 부모들의 높은 교육열과 자녀 관리 성향을 고려하면, 이 기능이 과도하게 사용될 우려도 있다. 메타는 "불필요한 알림을 피하겠다"고 했지만, 기준이 모호하다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
메타가 자해·자살 검색하는 청소년을 부모에게 알리는 시스템 도입. 기술이 가족 관계까지 바꾸고 있다.
마이크로소프트가 인셀 용어를 사용했다'는 가상의 헤드라인이 더 이상 놀랍지 않은 세상. 혐오 집단의 은어가 어떻게 주류 언어가 됐을까?
뉴욕주가 밸브를 상대로 제기한 도박 혐의 소송. 룩박스 시스템이 청소년에게 미치는 영향과 게임업계의 변화 전망을 분석한다.
조지아 대학생이 ChatGPT와의 대화 후 정신병적 증상을 보였다며 OpenAI를 고소. AI 챗봇의 심리적 영향에 대한 11번째 소송 사건의 의미를 분석한다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요