同意なきAIビキニ画像が拡散中 グーグルとOpenAIの対策は追いつくか
グーグルGeminiやOpenAIのChatGPTといった生成AIを悪用し、同意なく女性の写真をビキニ姿のディープフェイクに加工する問題が深刻化。レディットでの事例や各社の対応、そして技術倫理の課題を解説します。
グーグルの「Gemini」やOpenAIの「ChatGPT」といった主要なチャットボットを悪用し、普段着の女性の写真を本人の同意なく「ビキニ姿」のディープフェイク画像に加工するユーザーが増えています。WIREDの報道によると、一部のユーザーはSNS上で、AIの安全機能を回避して画像を生成する方法まで共有していることが明らかになりました。
レディットで横行した悪質な手口
問題の震源地の一つとなったのは、大手SNSのレディットです。現在は削除された「gemini nsfw image generation is so easy(ジェミニのNSFW画像生成はとても簡単)」というタイトルの投稿では、ユーザーたちがGeminiのガードレール(安全機能)を突破するノウハウを交換していました。あるユーザーがインドのサリーを着た女性の写真を投稿し、「服を脱がせてビキニにしてほしい」と依頼したところ、別のユーザーが実際にディープフェイク画像を生成して応じるという事例も確認されています。
WIREDがこの件について通知すると、レディットの安全チームは問題の投稿と画像を削除。「同意のない性的メディアを禁じるサイト全体のルールに違反する」と広報担当者はコメントしました。この議論が行われていたサブレディット「r/ChatGPTJailbreak」は、閉鎖されるまでに20万人以上のフォロワーがいたとのことです。
テクノロジー企業の対応と限界
WIREDが簡単な英語の指示で試したところ、GeminiとChatGPTの両方で、服を着た女性の画像をビキニ姿のディープフェイクに変換できたと報告されています。この問題に対し、グーグルの広報担当者は「性的コンテンツの生成を禁じる明確なポリシーがある」と述べ、ツールの改善を続けていると主張しました。
一方、OpenAIの広報担当者は、今年に入ってから「性的でない状況における成人の身体」に関するガードレールを一部緩和したことを認めました。しかし、同社の利用規約では同意のない他人の画像の改変は禁止しており、違反者にはアカウント停止などの措置を取っていると強調しています。
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
OpenAI가 프롬프트 인젝션 공격은 영구적인 위협이며 완벽한 해결이 불가능하다고 공식 인정했다. 그러나 벤처비트 조사에 따르면 기업의 65%는 관련 방어 체계가 부재한 것으로 나타났다.
OpenAI, Anthropic, 구글이 개발한 AI 코딩 에이전트가 소프트웨어 개발을 바꾸고 있다. LLM 기반 기술의 작동 원리와 잠재적 위험, 개발자가 알아야 할 핵심을 분석한다.
구글, OpenAI 등이 개발하는 AI 에이전트가 편리함을 제공하는 대가로 이메일, 파일 등 전례 없는 수준의 개인 데이터 접근을 요구하고 있습니다. 이것이 개인정보 보호와 사이버보안에 미칠 심각한 위협을 분석합니다.
OpenAI가 2025년 상반기 국립실종학대아동센터(NCMEC)에 접수한 아동 착취 관련 신고가 전년 동기 대비 80배 증가했다고 밝혔다. 이는 AI 탐지 능력 강화에 따른 결과일 수 있다는 분석이 나온다.