Liabooks Home|PRISM News
앱스토어 속 '누디파이' 앱들, 당신의 사진이 위험하다
경제AI 분석

앱스토어 속 '누디파이' 앱들, 당신의 사진이 위험하다

3분 읽기Source

애플과 구글 앱스토어에서 발견된 100여개 누디파이 앱들. AI가 일반 사진을 음란물로 바꾸는 기술의 어두운 면을 들여다본다.

100여개의 앱이 당신의 일상 사진을 음란물로 바꿀 수 있다면? 지금 이 순간에도 애플구글 앱스토어에서 다운로드 가능한 현실이다.

감시단체 테크 트랜스패런시 프로젝트(TTP)가 1월 실시한 조사에 따르면, 구글 플레이에서 55개, 애플 앱스토어에서 47개의 '누디파이' 앱이 발견됐다. 이들 앱은 AI를 사용해 일반인의 사진에서 옷을 벗긴 듯한 가짜 누드 이미지를 생성한다.

뒤늦은 대응, 여전한 위험

CNBCTTP가 문제를 제기한 후, 애플은 지난 월요일 28개 앱을 삭제했다고 발표했다. 하지만 TTP의 재조사 결과 실제로는 24개만 제거된 것으로 확인됐다. 일부 앱은 개발자가 수정 버전을 제출해 다시 스토어에 복귀하기도 했다.

구글 역시 "정책 위반 앱들을 조사 중"이라고 밝혔지만, 구체적인 삭제 개수는 공개하지 않았다. 두 회사 모두 "사용자 안전과 보안에 전념한다"고 말하지만, 여성을 대상으로 한 성적 학대 도구들을 방치해온 셈이다.

이들 앱의 누적 다운로드 수는 7억회를 넘어서며, 총 1억1700만 달러의 수익을 올린 것으로 추정된다. 애플구글은 모든 앱 수익에서 수수료를 가져간다.

기술의 진화, 범죄의 진화

문제는 기술이 점점 정교해지고 있다는 점이다. 조사 대상 앱 중 14개가 중국 기반이었는데, 이는 추가적인 보안 우려를 낳는다. TTP의 케이티 폴 디렉터는 "중국의 데이터 보관법에 따라 중국 정부가 모든 중국 기업의 데이터에 접근할 권리가 있다"며 "누군가 당신의 가짜 누드를 만들면, 그 이미지가 중국 정부 손에 들어갈 수 있다"고 경고했다.

실제로 지난 9월 CNBC가 보도한 미네소타 사건에서는 80명 이상의 여성이 소셜미디어 사진을 도용당해 가짜 누드 이미지 피해를 입었다. 성인 대상이고 유포하지 않았다는 이유로 명확한 범죄가 성립되지 않았다.

규제의 딜레마

일론 머스크xAI 역시 이달 초 자사 AI 도구 그록이 아동 성적 이미지 생성 요청에 응답한 것으로 논란이 됐다. 유럽연합 집행위원회는 월요일 이 문제로 X(구 트위터) 조사에 착수했다고 발표했다.

미국에서도 움직임이 있다. 8월 전국 검찰총장협회는 애플페이, 구글페이 등 결제 플랫폼에 비동의 음란물 생성 서비스 차단을 요청했다. 민주당 상원의원들은 이달 애플구글X 앱 삭제를 촉구하는 서한을 보내기도 했다.

하지만 규제와 기술 발전 속도의 격차는 여전하다. 구글 플레이 정책은 "사람을 벗기거나 옷을 투시한다고 주장하는 앱"을 금지하지만, 교묘하게 우회하는 앱들이 계속 등장한다. 애플 역시 "노골적으로 성적이거나 음란한" 콘텐츠를 금지하지만, 경계선은 모호하다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사