OpenAI 직원들이 경고했던 총기 난사범
OpenAI 직원들이 몇 달 전부터 우려를 제기했던 사용자가 실제 총기 난사 사건을 일으켰다. AI 기업의 안전 책임은 어디까지일까?
예고된 비극
브리티시컬럼비아 텀블러리지에서 발생한 총기 난사 사건의 용의자 제시 밴 루츠라르(Jesse Van Rootselaar)가 몇 달 전부터 OpenAI 직원들 사이에서 우려의 대상이었다는 사실이 드러났다. 지난 6월, 그는 ChatGPT와 총기 폭력을 묘사하는 대화를 나눴고, 이는 챗봇의 자동 검토 시스템을 작동시켰다.
월스트리트저널 보도에 따르면, 여러 직원들이 이러한 게시물이 현실 세계의 폭력으로 이어질 수 있다고 우려를 표명했다. 그들은 회사 리더십에 당국에 신고할 것을 권했지만, 결국 거부당했다.
기업의 선택
OpenAI 경영진은 루츠라르의 게시물이 "신빙성 있고 임박한 위험"을 구성하지 않는다고 판단했다. 이는 AI 기업들이 직면한 딜레마를 보여준다. 수십억 건의 대화 중에서 실제 위험과 단순한 상상을 구분하는 것은 쉽지 않다.
하지만 이번 사건은 AI 기업들의 안전 프로토콜에 대한 근본적인 질문을 던진다. 기술적으로는 위험한 콘텐츠를 탐지할 수 있지만, 법적·윤리적으로는 어디까지 개입해야 하는가?
업계의 고민
국내 AI 기업들도 비슷한 고민에 직면해 있다. 네이버의 하이퍼클로바나 카카오브레인의 서비스들 역시 사용자의 위험한 발언을 모니터링하고 있다. 하지만 개인정보보호법과 표현의 자유 사이에서 균형을 찾기는 쉽지 않다.
한 국내 AI 전문가는 "기술적으로는 가능하지만, 사회적 합의가 필요한 영역"이라고 말했다. 실제로 한국에서도 온라인 게시물을 통한 범죄 예고 사례들이 증가하고 있어, 이는 더 이상 해외만의 문제가 아니다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
OpenAI CEO 샘 올트먼은 AI가 순수한 이익만 가져온다고 말한다. 그의 블로그 포스트 '부드러운 특이점'이 60만 명에게 읽혔다. 하지만 낙관론에는 항상 가려진 것이 있다.
ChatGPT가 WIRED의 제품 추천을 묻는 질문에 존재하지 않는 제품을 추천하거나 오래된 정보를 최신인 것처럼 제시했다. AI 쇼핑 추천의 신뢰성 문제를 짚는다.
iOS 26.4 업데이트로 CarPlay에서 ChatGPT를 음성으로 사용할 수 있게 됐다. 단순한 앱 추가가 아니다. 차량 내 AI 경쟁의 판도가 바뀌고 있다.
OpenAI가 AI 영상 생성 도구 Sora를 출시 6개월 만에 종료했다. 음모론이 아닌 냉혹한 경제 논리가 이유였다. 하루 10억 원의 운영비, 반토막 난 이용자 수, 그리고 Anthropic에 빼앗긴 시장. Sora의 종료가 AI 산업에 던지는 질문을 분석한다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요