전쟁터에서 AI 가짜 영상 올리면 돈 못 번다
X가 무력 충돌 AI 영상에 수익화 제재를 발표했다. 전시 정보 신뢰성 vs 크리에이터 경제, 어디까지 통제해야 할까?
90일 동안 돈 못 번다
X(구 트위터)가 전쟁 관련 AI 생성 영상을 올리는 크리에이터들의 지갑을 겨냥했다. 화요일 발표에 따르면, 무력 충돌 상황의 AI 영상을 'AI 제작'이라고 표기하지 않고 올리면 90일간 수익 배분 프로그램에서 제외된다. 두 번 적발되면 영구 퇴출이다.
니키타 비어 X 제품 책임자는 "전시에는 현장의 진짜 정보에 접근하는 것이 중요하다"며 "오늘날 AI 기술로는 사람들을 속이는 콘텐츠를 만드는 게 너무 쉽다"고 설명했다.
돈이 걸린 진실 게임
X의 크리에이터 수익 배분 프로그램은 인기 게시물의 광고 수익을 나눠주는 시스템이다. 더 많은 관심을 끌수록 더 많이 번다. 문제는 여기서 시작된다.
비평가들은 이 구조가 "클릭베이트나 분노를 자극하는 선정적 콘텐츠"를 양산한다고 지적해왔다. 전쟁 같은 극한 상황의 가짜 영상이 바이럴되기 쉬운 이유다. 실제로 최근 몇 년간 우크라이나 전쟁, 이스라엘-팔레스타인 분쟁 관련 AI 생성 영상들이 소셜미디어를 통해 확산됐다.
X는 AI 콘텐츠 탐지 도구와 사용자 참여형 팩트체킹 시스템 '커뮤니티 노트'를 통해 이런 게시물을 찾아낼 계획이라고 밝혔다.
절반만 막은 구멍
하지만 이번 조치는 '전쟁' 상황에만 국한된다. 정치적 허위정보나 가짜 제품 광고 같은 다른 AI 기만 콘텐츠는 여전히 수익화가 가능하다.
유튜브나 틱톡 같은 경쟁 플랫폼들도 비슷한 고민을 안고 있다. AI 기술이 발전할수록 진짜와 가짜를 구분하기 어려워지는데, 어디까지 규제해야 할지 명확한 기준이 없다.
국내에서도 선거철마다 AI 딥페이크 후보자 영상이나 가짜 뉴스가 문제가 되고 있다. 네이버와 카카오 같은 플랫폼들도 머지않아 비슷한 정책을 도입해야 할 압박을 받을 가능성이 높다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
알파고를 만든 훈련 방식이 단순한 성냥개비 게임 앞에서 실패한다. DeepMind AI의 '자기 대국' 학습법이 왜 특정 게임에서 무너지는지, 그리고 이것이 AI 의존 시대에 무엇을 의미하는지 분석한다.
AI 데이터센터가 전 세계 RAM의 70%를 독점하면서 게임 콘솔 가격이 치솟고 있다. 4만5000명이 일자리를 잃은 게임 산업의 현재와, 삼성·SK하이닉스가 쥔 열쇠를 분석한다.
제품 엔지니어링 조직의 90%가 AI 투자를 늘리고 있다. 하지만 물리적 제품의 오류는 '롤백'이 없다. AI가 설계 현장에 들어올 때 무엇이 달라지고, 무엇이 위험해지는가.
소셜미디어로 자녀를 잃은 부모들이 빅테크 기업을 상대로 법정에서 싸우고 있다. 이 재판은 플랫폼의 책임 범위를 어디까지 인정할 것인가를 묻는다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요