Liabooks Home|PRISM News
AI가 대량살상 예고했는데... OpenAI는 왜 신고하지 않았나
테크AI 분석

AI가 대량살상 예고했는데... OpenAI는 왜 신고하지 않았나

3분 읽기Source

캐나다 총기난사범이 ChatGPT로 폭력 시나리오를 작성했지만 OpenAI는 경찰 신고를 하지 않았다. AI 기업의 윤리적 책임은 어디까지인가.

8명이 죽었다. 그 전에 AI는 알고 있었다

2025년 6월, OpenAI의 모니터링 시스템이 이상 신호를 감지했다. 18세 제시 반 루트셀라르가 ChatGPT와 나눈 대화 내용이었다. 총기 폭력에 대한 구체적인 묘사, 살상 시나리오에 대한 질문들. 시스템은 즉시 그의 계정을 차단했다.

8개월 후인 2026년 2월, 반 루트셀라르는 캐나다 텀블러 리지에서 8명을 살해하는 총기난사를 저질렀다. OpenAI 직원들은 사건 발생 전 경찰 신고를 놓고 격론을 벌였지만, 결국 신고하지 않았다고 월스트리트저널이 보도했다.

기업의 고민: "신고 기준이 애매하다"

OpenAI 대변인은 "반 루트셀라르의 활동이 법 집행기관 신고 기준에 부합하지 않았다"고 해명했다. 실제로 AI 기업들이 직면한 딜레마는 복잡하다.

매일 수백만 건의 대화가 오가는 상황에서, 어떤 내용을 '진짜 위험'으로 판단할 것인가? 정신건강 문제로 극단적 표현을 하는 사용자와 실제 범죄를 계획하는 사용자를 어떻게 구분할 것인가?

하지만 반 루트셀라르의 경우는 달랐다. ChatGPT 대화뿐만 아니라 아동들이 주로 이용하는 Roblox에서 쇼핑몰 총기난사 게임을 제작했고, Reddit에 총기 관련 글을 올렸다. 지역 경찰도 그의 불안정한 상태를 알고 있었다.

법적 책임 vs 도덕적 책임

현재 AI 기업들에게는 사용자의 위험한 행동을 사전에 신고할 법적 의무가 없다. 하지만 도덕적 책임은 다른 문제다.

미국에서는 이미 ChatGPT와의 대화가 자살을 부추겼다며 여러 소송이 진행 중이다. AI 모델이 사용자의 현실 감각을 흐리게 만들어 정신적 붕괴를 일으킨다는 주장도 제기된다.

국내 상황도 마찬가지다. 네이버HyperCLOVA X카카오브레인의 AI 서비스들도 비슷한 윤리적 딜레마에 직면할 수 있다. 특히 한국은 높은 자살률과 사이버불링 문제로 AI의 사회적 영향이 더욱 민감한 이슈다.

예방 vs 프라이버시, 어느 쪽을 택할까

이 사건은 근본적인 질문을 던진다. AI 기업들이 모든 대화를 모니터링하고 의심스러운 내용을 당국에 신고해야 할까?

찬성 논리: 생명을 구할 수 있다면 프라이버시 침해는 감수할 만하다. 이미 테러 예방을 위해 통신사들도 비슷한 역할을 한다.

반대 논리: 사적인 대화까지 감시당하는 사회는 디스토피아다. 오판으로 인한 무고한 피해자가 생길 수 있다.

유럽연합은 AI 규제법을 통해 고위험 AI 시스템에 대한 엄격한 책임을 부과하고 있다. 미국도 바이든 행정부 시절부터 AI 안전 가이드라인을 강화해왔다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사