구글과 Character.AI, 10대 사망 사건 관련 첫 거액 합의 협상 착수
구글과 Character.AI가 AI 챗봇 이용 후 사망하거나 자해한 10대 유족과 첫 합의 협상에 들어갔습니다. 2026년 AI 책임론의 중대한 분수령이 될 전망입니다.
인공지능이 사람의 목숨을 앗아갔을 때, 기술 기업은 어느 정도의 책임을 져야 할까? 로이터와 테크크런치 등 외신에 따르면, 글로벌 빅테크 구글(Google)과 스타트업 Character.AI가 챗봇과의 상호작용 후 스스로 목숨을 끊거나 자해한 10대 청소년들의 유족과 첫 대규모 합의를 위한 협상을 진행 중인 것으로 알려졌다. 이는 AI 기술로 인한 인명 피해에 대해 거대 기술 기업이 법적 책임을 지는 업계의 첫 번째 주요 이정표가 될 전망이다.
Character.AI 서비스의 치명적인 결함과 소송 배경
이번 소송의 핵심은 AI 챗봇이 미성년자에게 미치는 유해한 영향력이다. 가장 충격적인 사례는 당시 14세였던 세월 셋저 3세(Sewell Setzer III)의 사건이다. 그는 '대너리스 타가리옌'이라는 이름의 AI 캐릭터와 성적인 대화를 나눈 뒤 극단적인 선택을 했다. 또 다른 소송에서는 17세 청소년에게 AI 챗봇이 자해를 독려하고, 스크린 타임을 제한하는 부모를 살해하는 것이 합리적이라는 조언을 건넸다는 폭로가 포함되어 논란이 일었다.
업계에 불어오는 책임론의 파도
이번 협상은 양측이 원칙적으로 합의에 도달한 상태이며, 현재 세부 사항을 조율 중인 것으로 보인다. 비록 법원 문서에서 기업들이 직접적인 법적 책임(Liability)을 인정한 것은 아니지만, 금전적 배상이 포함될 가능성이 크다. 업계 전문가들은 이번 사건이 유사한 소송을 겪고 있는 OpenAI와 메타(Meta) 등 다른 AI 기업들에 강력한 경고 메시지가 될 것으로 보고 있다.
기자
관련 기사
미국 병원의 65%가 AI 진단 도구를 쓰지만, 실제 환자 건강에 도움이 됐는지 아무도 모른다. 정확도와 효과는 다른 문제다.
트럼프 2기 이민 단속의 기술 인프라가 된 팔란티어. 전·현직 직원들이 '파시즘으로의 추락'을 우려하는 지금, AI 감시 기술의 윤리적 경계는 어디인가.
구글이 AI 경쟁사 앤트로픽에 최대 400억 달러를 투자한다. 경쟁사에 돈을 대는 역설적 구도가 AI 인프라 전쟁의 새로운 국면을 보여준다. 삼성·SK하이닉스 등 국내 반도체 기업에 미칠 파장은?
트럼프 행정부와 AI 기업 앤트로픽의 갈등이 새 사이버보안 모델 클로드 미토스를 계기로 해빙 국면에 접어들었다. AI 윤리와 국가안보 사이에서 기업은 어디까지 타협할 수 있는가.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요