同意なきAIビキニ画像が拡散中 グーグルとOpenAIの対策は追いつくか
グーグルGeminiやOpenAIのChatGPTといった生成AIを悪用し、同意なく女性の写真をビキニ姿のディープフェイクに加工する問題が深刻化。レディットでの事例や各社の対応、そして技術倫理の課題を解説します。
グーグルの「Gemini」やOpenAIの「ChatGPT」といった主要なチャットボットを悪用し、普段着の女性の写真を本人の同意なく「ビキニ姿」のディープフェイク画像に加工するユーザーが増えています。WIREDの報道によると、一部のユーザーはSNS上で、AIの安全機能を回避して画像を生成する方法まで共有していることが明らかになりました。
レディットで横行した悪質な手口
問題の震源地の一つとなったのは、大手SNSのレディットです。現在は削除された「gemini nsfw image generation is so easy(ジェミニのNSFW画像生成はとても簡単)」というタイトルの投稿では、ユーザーたちがGeminiのガードレール(安全機能)を突破するノウハウを交換していました。あるユーザーがインドのサリーを着た女性の写真を投稿し、「服を脱がせてビキニにしてほしい」と依頼したところ、別のユーザーが実際にディープフェイク画像を生成して応じるという事例も確認されています。
WIREDがこの件について通知すると、レディットの安全チームは問題の投稿と画像を削除。「同意のない性的メディアを禁じるサイト全体のルールに違反する」と広報担当者はコメントしました。この議論が行われていたサブレディット「r/ChatGPTJailbreak」は、閉鎖されるまでに20万人以上のフォロワーがいたとのことです。
テクノロジー企業の対応と限界
WIREDが簡単な英語の指示で試したところ、GeminiとChatGPTの両方で、服を着た女性の画像をビキニ姿のディープフェイクに変換できたと報告されています。この問題に対し、グーグルの広報担当者は「性的コンテンツの生成を禁じる明確なポリシーがある」と述べ、ツールの改善を続けていると主張しました。
一方、OpenAIの広報担当者は、今年に入ってから「性的でない状況における成人の身体」に関するガードレールを一部緩和したことを認めました。しかし、同社の利用規約では同意のない他人の画像の改変は禁止しており、違反者にはアカウント停止などの措置を取っていると強調しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
1220億ドルの資金調達を誇るOpenAIが、幹部の相次ぐ離脱やプロジェクト中止で揺れている。ChatGPTの「ブランド力」は本物か、それとも砂上の楼閣か。日本企業への影響も含めて考察する。
ウィスコンシン州知事がポルノサイトへの年齢確認義務法案を拒否。「子どもの保護」と「大人のプライバシー」という二つの正義が衝突する現代的課題を読み解く。
OpenAIの元エンジニアや研究者が立ち上げたVCファンド「Zero Shot」が1億ドルを目標に始動。AI業界の内側を知る創業者たちは、どこに投資し、何を避けるのか。日本企業への示唆も含めて解説します。
イラン革命防衛隊がUAEのOpenAI Stargateデータセンターへの攻撃を示唆する動画を公開。3兆円規模のAIインフラが地政学的リスクの最前線に立たされた今、AI産業の未来はどこへ向かうのか。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加