XがGrok不適切コンテンツ対策を発表:モデル修正ではなく「ユーザー追放」へ
XはAI『Grok』が児童性的虐待コンテンツ(CSAM)を生成できる問題に対し、モデル修正ではなく、生成ユーザーのアカウントを永久停止し法的措置を講じる方針を発表。プラットフォームの責任を回避する姿勢に批判も。
AIが生成した責任を、ユーザーがすべて負うことになります。イーロン・マスク氏率いるXは、同社のAI「Grok」が児童性的虐待コンテンツ(CSAM)を含む不適切な画像を生成できる状態にあることに対し、モデルの改修ではなく、該当するコンテンツを生成したユーザーのアカウントを永久停止するという強硬姿勢を示しました。
X SafetyによるGrok不適切コンテンツ対策の公式声明
X Safetyの公式発表によると、Grokを利用して違法なコンテンツを生成したユーザーは、通常の投稿と同様の罰則を受けることになります。約1週間にわたる批判を受けて出されたこの声明では、AI側のフィルタリング機能の不備に対する謝罪はなく、むしろ「違法なプロンプト(指示語)を入力するユーザー」に責任があると指摘しています。
具体的には、CSAMを含む違法コンテンツの削除、アカウントの永久停止、そして必要に応じて各国の法執行機関と協力する方針を明らかにしました。Grokを使って画像を作る行為も、外部から画像をアップロードする行為と同じ法的な重みを持つと警告しています。
プラットフォームの責任か、ユーザーの自己責任か
この対応は、他のAI企業とは対照的です。一般的に生成AIを運営する企業は、モデル自体に強力なセーフガード(安全策)を設け、特定のキーワードや概念が入力された時点で生成を拒否するように設計します。しかし、Xは自由な表現を重視する姿勢を崩しておらず、出力結果の管理をユーザー側に委ねる形を選んだと見られます。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
イーロン・マスクのXが画像編集検知機能を発表。しかし判別基準や精度への懸念が浮上。Meta、TikTokに続く対応だが、政治宣伝の温床となっているプラットフォームでの実効性は不透明
テスラの2025年利益が46%減少。マスクCEOの政治参加とEV補助金廃止が売上に打撃。しかし投資家は株価上昇で反応。自動車会社からAI企業への転換が加速。
テスラがオースティンで監視員なしのロボタクシー走行を開始。イーロン・マスク氏もAIチームを祝福。Waymoを追うテスラの自律走行戦略の現在地を解説します。
イーロン・マスク氏のxAIが提供する「Grok」によるディープフェイク生成が大きな社会問題となっています。X(旧Twitter)での拡散と法規制の現状、コンテンツモデレーションの歴史を Chief Editor が分析します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加