AIが作る「偽の性的映像」、年間数億円市場に成長
ディープフェイク技術を悪用した性的画像・動画生成サービスが急拡大。1枚の写真から8秒の動画を作成、女性への深刻な被害が社会問題化
1枚の写真があれば、わずか数クリックで8秒間の性的な偽動画を作成できる。そんなサービスが今、インターネット上で急速に拡大している。
「写真1枚から裸体動画」の恐ろしい現実
ある明示的なディープフェイク生成サイトを開くと、恐ろしいメニューが表示される。「高度なAI技術で、あらゆる写真を裸体版に変換します」というテキストとともに、65種類もの動画テンプレートが並んでいる。
服を脱ぐ動画から、より露骨な性的場面まで、選択肢は多岐にわたる。各動画の生成には少額の料金がかかり、AI生成音声を追加すればさらに費用がかさむ。サイトには「同意を得た写真のみアップロードしてください」という警告があるが、これを確認するチェック機能があるかは不明だ。
イーロン・マスク氏の企業が開発したチャットボット「Grok」でも、数千枚の無同意「脱衣」画像が作成され、デジタル性的嫌がらせの産業化と正常化がさらに進んでいる。
年間数億円規模に成長した「悪用エコシステム」
ディープフェイク専門家のヘンリー・アジダー氏は、この技術の進歩について警鐘を鳴らす。「もはや粗雑な合成映像ではありません。生成される画像のリアリズムが格段に向上し、機能の幅も大幅に広がっています」
WIREDの調査によると、50以上のディープフェイクサイトが月間数百万回の閲覧を受けており、そのほぼすべてが高品質な性的動画生成を提供している。これらのサービスは合わせて年間数億円規模の収益を上げているとみられる。
Telegram上では、数十の性的ディープフェイクチャンネルとボットが定期的に新機能やソフトウェア更新をリリースしている。昨年6月、あるサービスは「セックスモード」を宣伝し、「さまざまな服装、お気に入りのポーズ、年齢、その他の設定を試してみてください」とメッセージを添えた。
被害者の97%が女性という現実
非同意親密画像(NCII)の被害者・生存者は、ほぼ常に女性だ。偽画像や無同意動画は、嫌がらせ、屈辱、「非人間化」された感覚など、深刻な害をもたらす。
ニュースクール大学の応用心理学准教授でSexTech Labの創設者であるパニ・ファルビッド氏は指摘する。「一般的に、この影響を受けるのは女性や子ども、その他の性的・ジェンダー的マイノリティです。世界的に見て、私たちは社会として、どのような形であれ女性に対する暴力を真剣に受け止めていません」
オーストラリアの研究者アッシャー・フリン氏が主導した調査では、ディープフェイク悪用の作成者と被害者25人にインタビューを実施。その結果、使いやすいツール、無同意性的画像作成の正常化、害の軽視という3つの要因が問題の拡大に寄与していることが判明した。
日本社会への影響と課題
日本では、2023年に「性的な画像を無断で作成・公開する行為」を処罰する改正刑法が施行されたが、技術の進歩に法整備が追いついていない現状がある。特に、LINEなどの身近なメッセージアプリを通じた被害の拡散が懸念される。
MITの研究者スティーブン・キャスパー氏は、この問題の根深さを指摘する。「このエコシステムはオープンソースモデルの上に構築されています。多くの場合、オープンソースモデルを使ってアプリを開発し、それをユーザーが使用するという構造です」
日本企業にとっても、従業員や顧客を守るためのデジタルリテラシー教育や、AI技術の倫理的使用に関するガイドライン策定が急務となっている。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米国防総省とAI企業Anthropicの対立が激化。クロードは軍事作戦でどう使われているのか。自律型兵器とAI倫理の境界線を巡る攻防を読み解く。
文章校正ツールGrammarlyが実在するジャーナリストの名前・肖像をAI機能に無断使用。集団訴訟に発展したこの問題は、AI時代における「同一性権」の新たな戦場を示している。
AI文章ツールGrammarlyが著名ジャーナリストの名前と個性を無断使用。集団訴訟に発展したこの事件は、AIが「人格」をどう扱うべきかという根本的な問いを突きつけています。
SuperhumanがGrammarlyの「Expert Review」機能を無効化。実在するライターの文体をAIが無断で参照していた問題を解説。コンテンツ制作者や法律専門家が知るべき、AI時代の「同意」の意味とは。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加