구글 AI가 당신 얼굴로 가짜 사진 만드는 시대
구글 나노 바나나 2로 누구나 쉽게 얼굴 합성. 진짜와 가짜를 구분할 수 없는 시대, 우리는 무엇을 믿어야 할까?
48시간 만에 100만 명이 시도했다. 구글이 새로 출시한 나노 바나나 2로 자신의 얼굴을 온갖 상황에 합성하는 일이다. 스키장에서 멋지게 활강하는 모습, 온천에서 여유롭게 쉬는 장면까지. 문제는 이 모든 게 100% 가짜라는 점이다.
셀카 한 장이면 충분하다
구글의 최신 AI 이미지 생성기 나노 바나나 2는 기존 버전보다 3배 빠르다. Gemini 챗봇에서 바나나 이모지만 클릭하면 된다. 복잡한 설치나 전문 지식은 필요 없다.
실제 테스트 결과는 놀라웠다. 기자가 업로드한 화장실 셀카를 바탕으로, AI는 스키장 온천에서 목욕하는 '사실적인' 이미지를 만들어냈다. 원본 사진에 보이지 않던 셔츠 디자인까지 완벽하게 재현했다. 심지어 물속에 잠긴 손목의 체인 목걸이까지 그대로 그려냈다.
하지만 모든 결과가 완벽하지는 않다. '근육질 몸매로 스키 타는 모습'을 요청했을 때는 마치 종이 인형을 오려 붙인 듯한 어색한 결과가 나왔다. 얼굴만 따로 떼어낸 것처럼 보였다.
진짜 같은 가짜의 위험성
더 심각한 문제는 실시간 웹 정보 활용 기능이다. 날씨 정보를 바탕으로 인포그래픽을 만들어달라고 요청했을 때, AI는 그럴듯한 차트를 생성했다. 하지만 실제 확인해보니 일주일 전 데이터를 사용해 완전히 틀린 예보를 제공했다.
구글은 AI 생성 이미지에 워터마크를 표시한다고 하지만, 소셜미디어를 빠르게 스크롤하다 보면 놓치기 쉽다. 특히 품질이 계속 개선되면서 육안으로 구분하기가 더욱 어려워지고 있다.
국내 전문가들도 우려를 표한다. 한국인터넷진흥원의 김모 연구원은 "AI 생성 콘텐츠의 품질이 급속히 향상되면서 가짜 뉴스나 사기에 악용될 가능성이 높아지고 있다"고 경고했다.
한국은 준비됐을까
네이버와 카카오 같은 국내 플랫폼들도 비슷한 기능 도입을 검토 중이다. 하지만 국내 법적 기준은 아직 모호하다. 개인정보보호법상 얼굴 합성이 어디까지 허용되는지, 피해 발생 시 누가 책임질지 명확하지 않다.
교육 현장의 혼란도 예상된다. 학생들이 과제나 프로젝트에서 AI 생성 이미지를 사용할 경우, 교사들이 이를 구분해낼 수 있을까? 일부 대학에서는 이미 'AI 사용 가이드라인' 마련에 나섰지만, 초중고교는 대부분 준비가 부족한 상황이다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
AI 번역기가 위키피디아 소수언어 문서를 오염시키고, 그 오염된 데이터로 AI가 다시 학습하는 악순환. 세계 7,000개 언어 중 절반이 위기에 처했다.
트럼프 행정부가 월가 은행들에 Anthropic의 Mythos AI 모델 테스트를 권고했다. 동시에 같은 회사를 법원에서 상대하고 있는 아이러니한 상황, 그 이면을 들여다본다.
AGI, LLM, 환각, 추론 모델… AI 업계가 쏟아내는 전문 용어들. 단순한 어휘 문제가 아니라, 기술 권력이 작동하는 방식의 문제입니다. 핵심 AI 용어 해설과 그 이면의 의미.
깃허브 코파일럿에서 바이브코딩까지, AI 코딩 도구의 5년 진화가 소프트웨어 개발자의 역할을 근본적으로 바꾸고 있다. 한국 개발자와 IT 산업에 미치는 영향을 분석한다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요