Liabooks Home|PRISM News
AIが作る「偽の性的映像」、年間数億円市場に成長
テックAI分析

AIが作る「偽の性的映像」、年間数億円市場に成長

4分で読めるSource

ディープフェイク技術を悪用した性的画像・動画生成サービスが急拡大。1枚の写真から8秒の動画を作成、女性への深刻な被害が社会問題化

1枚の写真があれば、わずか数クリックで8秒間の性的な偽動画を作成できる。そんなサービスが今、インターネット上で急速に拡大している。

「写真1枚から裸体動画」の恐ろしい現実

ある明示的なディープフェイク生成サイトを開くと、恐ろしいメニューが表示される。「高度なAI技術で、あらゆる写真を裸体版に変換します」というテキストとともに、65種類もの動画テンプレートが並んでいる。

服を脱ぐ動画から、より露骨な性的場面まで、選択肢は多岐にわたる。各動画の生成には少額の料金がかかり、AI生成音声を追加すればさらに費用がかさむ。サイトには「同意を得た写真のみアップロードしてください」という警告があるが、これを確認するチェック機能があるかは不明だ。

イーロン・マスク氏の企業が開発したチャットボット「Grok」でも、数千枚の無同意「脱衣」画像が作成され、デジタル性的嫌がらせの産業化と正常化がさらに進んでいる。

年間数億円規模に成長した「悪用エコシステム」

ディープフェイク専門家のヘンリー・アジダー氏は、この技術の進歩について警鐘を鳴らす。「もはや粗雑な合成映像ではありません。生成される画像のリアリズムが格段に向上し、機能の幅も大幅に広がっています」

WIREDの調査によると、50以上のディープフェイクサイトが月間数百万回の閲覧を受けており、そのほぼすべてが高品質な性的動画生成を提供している。これらのサービスは合わせて年間数億円規模の収益を上げているとみられる。

PRISM

広告掲載について

[email protected]

Telegram上では、数十の性的ディープフェイクチャンネルとボットが定期的に新機能やソフトウェア更新をリリースしている。昨年6月、あるサービスは「セックスモード」を宣伝し、「さまざまな服装、お気に入りのポーズ、年齢、その他の設定を試してみてください」とメッセージを添えた。

被害者の97%が女性という現実

非同意親密画像(NCII)の被害者・生存者は、ほぼ常に女性だ。偽画像や無同意動画は、嫌がらせ、屈辱、「非人間化」された感覚など、深刻な害をもたらす。

ニュースクール大学の応用心理学准教授でSexTech Labの創設者であるパニ・ファルビッド氏は指摘する。「一般的に、この影響を受けるのは女性や子ども、その他の性的・ジェンダー的マイノリティです。世界的に見て、私たちは社会として、どのような形であれ女性に対する暴力を真剣に受け止めていません」

オーストラリアの研究者アッシャー・フリン氏が主導した調査では、ディープフェイク悪用の作成者と被害者25人にインタビューを実施。その結果、使いやすいツール、無同意性的画像作成の正常化、害の軽視という3つの要因が問題の拡大に寄与していることが判明した。

日本社会への影響と課題

日本では、2023年に「性的な画像を無断で作成・公開する行為」を処罰する改正刑法が施行されたが、技術の進歩に法整備が追いついていない現状がある。特に、LINEなどの身近なメッセージアプリを通じた被害の拡散が懸念される。

MITの研究者スティーブン・キャスパー氏は、この問題の根深さを指摘する。「このエコシステムはオープンソースモデルの上に構築されています。多くの場合、オープンソースモデルを使ってアプリを開発し、それをユーザーが使用するという構造です」

日本企業にとっても、従業員や顧客を守るためのデジタルリテラシー教育や、AI技術の倫理的使用に関するガイドライン策定が急務となっている。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]