Liabooks Home|PRISM News
어두운 방 안에서 화면을 응시하는 청소년의 실루엣
TechAI 분석

구글과 Character.AI, 미성년자 자살 및 심리적 피해 소송 합의 (Google Character.AI lawsuit settlement 2026)

2분 읽기Source

구글과 Character.AI가 미성년자 자살 등 심리적 피해와 관련된 소송에 합의했습니다. Google Character.AI lawsuit settlement 2026의 맥락과 AI 윤리 규제 방향을 분석합니다.

당신의 자녀가 대화하는 상대가 AI라면, 기업은 그 안전을 어디까지 책임져야 할까요? 인공지능이 청소년에게 미치는 심리적 해악을 두고 법적 공방을 벌여온 구글(Google)Character.AI가 피해 유가족들과 전격 합의에 도달했습니다.

Google Character.AI Lawsuit Settlement 2026: 법적 분쟁의 배경

로이터와 주요 외신에 따르면, 이번 주 제출된 법원 문서를 통해 구글Character.AI가 미성년자 자해 및 자살과 관련된 소송을 종결하기 위해 합의 조건 조율에 들어갔음이 확인되었습니다. 특히 14세 소년 세월 세처 3세(Sewell Setzer III)의 어머니인 메건 가르시아는 챗봇과의 유해한 상호작용이 아들의 죽음을 초래했다며 과실치사와 제품 결함 책임을 주장해 왔습니다.

이번 합의는 뉴욕, 텍사스, 콜로라도 등 미국 전역의 가족들이 제기한 여러 소송을 포괄하는 것으로 보입니다. 구체적인 보상 금액이나 조건은 아직 공개되지 않았으나, 양측은 소송 절차를 일시 중단하고 공식적인 합의 문서를 작성하기로 합의했습니다.

기업의 책임과 AI 윤리의 새로운 분기점

구글은 지난 2024년 8월, Character.AI27억 달러를 지불하는 라이선싱 계약을 체결하고 핵심 창립자들을 영입했습니다. 이로 인해 소송 과정에서 구글의 책임론이 거세게 대두되었습니다. Character.AI는 논란이 확산되자 지난 2025년 10월부터 18세 미만 사용자의 로맨틱하거나 치료 목적의 대화를 금지하는 보호 조치를 시행하고 있습니다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

관련 기사