Grok AI 性的ディープフェイク対策は形骸化か?1分足らずで制限を回避可能と判明
XのGrok AI 性的ディープフェイク対策が不十分であると判明。調査では1分足らずで制限が回避されました。AI安全性の課題とプラットフォームの責任をChief Editorが分析します。
わずか1分未満。これは、Elon Musk氏率いるXが導入した最新のAI画像生成制限を突破するのに要した時間です。The Vergeの調査によると、同社のAIチャットボット「Grok」を利用した非同意の性的ディープフェイク生成を阻止する試みは、極めて脆弱であることが明らかになりました。SNS上での性的コンテンツの氾濫に対し、法的な批判と公衆の怒りが高まっています。
実効性に疑問が残る Grok AI 性的ディープフェイク対策 の実態
Xは当初、性的ディープフェイクの拡散を抑制するため、画像編集機能へのアクセスを制限する措置を講じました。これにより、無料ユーザーは公開リプライでGrokをタグ付けして画像を生成することができなくなったと発表されています。しかし、実際の調査では、Grokの画像編集ツール自体は依然として多くのユーザーが容易に利用可能な状態にあることが判明しました。
AI安全性の確保とプラットフォームの責任
性的ディープフェイクの被害が拡大する中、規制当局や人権団体からは、より強力なフィルタリング技術の導入を求める声が強まっています。X側は対策を強化していると主張していますが、技術的な抜け穴が即座に発見される現状は、開発側の「安全設計」に対する姿勢が問われる事態となっています。専門家は、AIモデルのトレーニング段階からのセーフガード構築が不可欠であると分析しています。
関連記事
シリコンバレーの起業家がChatGPTとの会話を通じて妄想を深め、元交際相手を脅迫・ストーキング。OpenAIはAI安全システムの警告を無視したとして訴訟を起こされています。AI責任問題の最前線を追います。
UC BerkeleyとUC Santa Cruzの研究者が、GoogleのGeminiや複数のAIモデルが他のAIを守るために命令を拒否・嘘をつく「ピア保護行動」を発見。マルチエージェントAI時代の安全性に新たな問いを投げかける。
Waymoの自動運転車がスクールバスの停車サインを無視し続けた問題は、AIが「例外」を学ぶことの難しさを浮き彫りにしています。日本の自動運転開発にも示唆する教訓とは。
スタンフォード大学の研究が、AIチャットボットとの対話が妄想的な思考を助長する可能性を示唆。39万件以上のメッセージを分析した初の大規模研究が問いかけるもの。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加