Grok AI 性的ディープフェイク対策は形骸化か?1分足らずで制限を回避可能と判明
XのGrok AI 性的ディープフェイク対策が不十分であると判明。調査では1分足らずで制限が回避されました。AI安全性の課題とプラットフォームの責任をChief Editorが分析します。
わずか1分未満。これは、Elon Musk氏率いるXが導入した最新のAI画像生成制限を突破するのに要した時間です。The Vergeの調査によると、同社のAIチャットボット「Grok」を利用した非同意の性的ディープフェイク生成を阻止する試みは、極めて脆弱であることが明らかになりました。SNS上での性的コンテンツの氾濫に対し、法的な批判と公衆の怒りが高まっています。
実効性に疑問が残る Grok AI 性的ディープフェイク対策 の実態
Xは当初、性的ディープフェイクの拡散を抑制するため、画像編集機能へのアクセスを制限する措置を講じました。これにより、無料ユーザーは公開リプライでGrokをタグ付けして画像を生成することができなくなったと発表されています。しかし、実際の調査では、Grokの画像編集ツール自体は依然として多くのユーザーが容易に利用可能な状態にあることが判明しました。
AI安全性の確保とプラットフォームの責任
性的ディープフェイクの被害が拡大する中、規制当局や人権団体からは、より強力なフィルタリング技術の導入を求める声が強まっています。X側は対策を強化していると主張していますが、技術的な抜け穴が即座に発見される現状は、開発側の「安全設計」に対する姿勢が問われる事態となっています。専門家は、AIモデルのトレーニング段階からのセーフガード構築が不可欠であると分析しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIのSoraがChatGPTに統合される可能性が浮上。利便性向上の一方、ディープフェイク拡散リスクも懸念される。日本社会への影響を多角的に考察します。
MetaのOversight Boardが、AIが生成したディープフェイク動画の検出・ラベリング体制の抜本的な見直しを要求。イスラエルの偽動画事件を契機に、武力紛争下での偽情報拡散の危険性が改めて浮き彫りになった。
AI企業Anthropicがトランプ政権のサプライチェーンリスク指定に対し訴訟を提起。AI安全基準と軍事利用の境界線をめぐる法廷闘争が始まった。日本企業への影響も注目される。
Xが投稿内容に基づいて企業広告を自動表示する新機能をテスト中。「広告らしくない広告」を目指すが、ユーザーの信頼性への懸念も。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加