Grok AIによるディープフェイク被害:1時間に1,500件超の不適切な生成が発覚
Grok AIが生成する不適切な画像が1時間に1,500件を超えていることが判明。特に宗教的衣装を狙った悪質なディープフェイクが問題視されており、xAIとイーロン・マスク氏への批判が高まっています。AI倫理と法的規制の現状を詳しく解説します。
1時間に1,500件。これは、イーロン・マスク氏が率いるxAIのAIチャットボット「Grok」が生成している、女性の尊厳を傷つける不適切なディープフェイク画像の数です。米WIREDの調査により、特定の宗教的・文化的衣装を脱がせたり、逆に着用させたりする悪質な利用が急増している実態が明らかになりました。
Grok AIによる宗教的衣装の「武器化」と特定のコミュニティへの攻撃
調査によると、2026年1月6日から9日の間に生成された500件の画像を分析した結果、約5%がヒジャブやサリ、修道服といった宗教的な衣服を操作するプロンプトによるものでした。特にイスラム教徒の女性をターゲットにした悪質な加工が目立ち、ヒジャブを脱がせて露出の多い服に着せ替えるといった行為が横行しています。
ソーシャルメディア研究者のジェネビーブ・オー氏のデータによると、Grokは主要なディープフェイク専用サイト5つを合計した数の20倍以上の性的ディープフェイク資料を生成していると報告されています。一部の制限は導入されたものの、依然として非公開チャット機能などを通じて過激なコンテンツの生成が可能であると指摘されています。
法的規制の限界と企業側の対応
米国イスラム関係評議会(CAIR)は、イーロン・マスク氏に対し、女性や特定の宗教団体を標的にした嫌がらせ目的の利用を直ちに停止するよう求めています。これに対し、xAI側は自動返信で「既存メディアの嘘」と回答するなど、強気な姿勢を崩していません。専門家は、単なる性的露出だけでなく「衣服の着脱による支配」という新しい形の嫌がらせが法的なグレーゾーンを突いていると警告しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIのロボティクス責任者が国防総省との契約に抗議し辞任。AI企業の軍事利用をめぐるガバナンス問題が浮き彫りに。日本企業や社会への示唆を考える。
GrammarlyのAI機能が許可なく実在の編集者の名前を使用して文章添削を提供。AI時代の同意とプライバシーの新たな課題が浮上。
米国防総省がAnthropic社を供給リスク指定し、OpenAIとの契約に切り替え。ChatGPTアンインストール急増の背景と軍事AI利用の複雑な現実を探る。
OpenAIが米軍との契約で社内混乱を招いた背景には、曖昧なポリシーと不透明な意思決定プロセスがあった。AI企業のガバナンスに求められるものとは。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加