Liabooks Home|PRISM News

#딥페이크

총 65개의 기사

딥페이크가 선거를 흔든다, 당신은 구별할 수 있는가
경제KR
딥페이크가 선거를 흔든다, 당신은 구별할 수 있는가

2026년 미국 중간선거에서 AI 딥페이크가 선거 캠페인을 뒤흔들고 있다. 유권자들은 무엇이 진실인지 알 수 없는 시대, 민주주의의 작동 방식이 근본부터 흔들리고 있다.

졸업사진이 음란물이 됐다 — Grok이 한 일
테크KR
졸업사진이 음란물이 됐다 — Grok이 한 일

xAI의 AI 이미지 모델 Grok이 실제 미성년자 사진을 성적 콘텐츠로 변환했다는 집단소송이 제기됐다. 세 명의 익명 원고가 캘리포니아 연방법원에 소장을 제출했으며, 이는 AI 이미지 생성 모델의 안전장치 부재 문제를 정면으로 다루는 첫 대형 소송 중 하나다.

ChatGPT가 영상을 만든다면, 딥페이크는 누가 막나
테크KR
ChatGPT가 영상을 만든다면, 딥페이크는 누가 막나

OpenAI가 영상 생성 AI Sora를 ChatGPT에 통합할 계획이다. 편의성은 높아지지만, 딥페이크 범람이라는 더 큰 문제가 수면 위로 떠오른다.

PRISM

PRISM by Liabooks

PRISM
광고주 모집

이 공간에 광고를 게재해 보세요

[email protected]
구글 AI가 당신 얼굴로 가짜 사진 만드는 시대
테크KR
구글 AI가 당신 얼굴로 가짜 사진 만드는 시대

구글 나노 바나나 2로 누구나 쉽게 얼굴 합성. 진짜와 가짜를 구분할 수 없는 시대, 우리는 무엇을 믿어야 할까?

AI가 만든 가짜 음란물, 중국 여성들을 겨냥하다
정치KR
AI가 만든 가짜 음란물, 중국 여성들을 겨냥하다

중국 AI 챗봇 더우바오가 실제 여성들의 비동의 음란 이미지 생성에 악용되면서 '디지털 공개 수치'라는 새로운 형태의 성폭력이 등장했다. 기술 발전의 어두운 단면을 들여다본다.

딥페이크 판별법, 왜 이렇게 늦어지고 있을까
테크KR
딥페이크 판별법, 왜 이렇게 늦어지고 있을까

AI 기업들의 도움에도 불구하고 딥페이크 탐지 기술 발전이 더딘 이유와 진짜 콘텐츠 라벨링 시스템의 현실적 한계를 분석한다.

진짜와 가짜를 구분하는 새로운 전쟁이 시작됐다
테크KR
진짜와 가짜를 구분하는 새로운 전쟁이 시작됐다

마이크로소프트가 AI 조작 콘텐츠를 식별하는 기술 표준을 제안했다. 딥페이크가 일상화된 시대, 진실을 증명하는 방법은 무엇일까?

PRISM

PRISM by Liabooks

PRISM
광고주 모집

이 공간에 광고를 게재해 보세요

[email protected]
죽은 가족을 AI로 되살려 결혼식에 초대하는 사람들
테크KR
죽은 가족을 AI로 되살려 결혼식에 초대하는 사람들

인도에서 급성장하는 AI 추모 서비스. 죽은 가족을 딥페이크로 되살려 결혼식과 가족 행사에 참석시키는 새로운 비즈니스가 던지는 질문들.

AI가 사이버 범죄를 가속화하고 있다
테크KR
AI가 사이버 범죄를 가속화하고 있다

AI 기술이 해킹과 사기를 더 쉽고 빠르게 만들고 있다. 딥페이크부터 자동화 공격까지, 우리가 준비해야 할 새로운 위협들을 살펴본다.

딥페이크 판별, 이제 9일 안에 해결하라
테크KR
딥페이크 판별, 이제 9일 안에 해결하라

인도가 소셜미디어 플랫폼에 AI 생성 콘텐츠 9일 내 삭제 의무화. 10억 사용자 시장의 압박이 글로벌 기술 표준을 바꿀까?

딥페이크 시대, 가짜를 구별하는 '심리 백신'이 통할까
컬처KR
딥페이크 시대, 가짜를 구별하는 '심리 백신'이 통할까

정치 딥페이크를 구별하는 능력을 키우는 '접종 이론' 연구 결과. 텍스트 설명과 게임 모두 효과적이지만, 장기 효과는 여전히 미지수

PRISM

PRISM by Liabooks

PRISM
광고주 모집

이 공간에 광고를 게재해 보세요

[email protected]
AI가 진실을 바꿀 때, 우리는 무엇을 믿어야 할까
테크KR
AI가 진실을 바꿀 때, 우리는 무엇을 믿어야 할까

미국 정부가 AI로 편집한 콘텐츠를 공개하고, 가짜임을 알아도 사람들이 영향받는다는 연구 결과가 나왔다. 진실 검증 도구들이 실패하고 있는 지금, 우리는 어떻게 대응해야 할까?

PRISM

광고주 모집

[email protected]