同意なきAIビキニ画像が拡散中 グーグルとOpenAIの対策は追いつくか
グーグルGeminiやOpenAIのChatGPTといった生成AIを悪用し、同意なく女性の写真をビキニ姿のディープフェイクに加工する問題が深刻化。レディットでの事例や各社の対応、そして技術倫理の課題を解説します。
グーグルの「Gemini」やOpenAIの「ChatGPT」といった主要なチャットボットを悪用し、普段着の女性の写真を本人の同意なく「ビキニ姿」のディープフェイク画像に加工するユーザーが増えています。WIREDの報道によると、一部のユーザーはSNS上で、AIの安全機能を回避して画像を生成する方法まで共有していることが明らかになりました。
レディットで横行した悪質な手口
問題の震源地の一つとなったのは、大手SNSのレディットです。現在は削除された「gemini nsfw image generation is so easy(ジェミニのNSFW画像生成はとても簡単)」というタイトルの投稿では、ユーザーたちがGeminiのガードレール(安全機能)を突破するノウハウを交換していました。あるユーザーがインドのサリーを着た女性の写真を投稿し、「服を脱がせてビキニにしてほしい」と依頼したところ、別のユーザーが実際にディープフェイク画像を生成して応じるという事例も確認されています。
WIREDがこの件について通知すると、レディットの安全チームは問題の投稿と画像を削除。「同意のない性的メディアを禁じるサイト全体のルールに違反する」と広報担当者はコメントしました。この議論が行われていたサブレディット「r/ChatGPTJailbreak」は、閉鎖されるまでに20万人以上のフォロワーがいたとのことです。
テクノロジー企業の対応と限界
WIREDが簡単な英語の指示で試したところ、GeminiとChatGPTの両方で、服を着た女性の画像をビキニ姿のディープフェイクに変換できたと報告されています。この問題に対し、グーグルの広報担当者は「性的コンテンツの生成を禁じる明確なポリシーがある」と述べ、ツールの改善を続けていると主張しました。
一方、OpenAIの広報担当者は、今年に入ってから「性的でない状況における成人の身体」に関するガードレールを一部緩和したことを認めました。しかし、同社の利用規約では同意のない他人の画像の改変は禁止しており、違反者にはアカウント停止などの措置を取っていると強調しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
ジェンセン・フアンCEOがOpenAIとの関係悪化報道を「ナンセンス」と一蹴。AI業界の巨額投資戦略に隠された真意とは
ミネソタ州でICE活動を観察した女性が顔認識技術で特定され、TSA PreCheckとGlobal Entry特典を剥奪。政府監視の新たな局面が浮き彫りに。
インスタグラムが「親しい友達」リストから自分を削除できる機能を開発中。SNSにおける人間関係の主導権が変わる可能性を探る
ミネアポリスでの連邦捜査官による市民射殺事件を機に、ClearviewAIやPalantirなどテック企業の監視システムが移民取締りに使用されている実態が明らかに
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加