XがGrok不適切コンテンツ対策を発表:モデル修正ではなく「ユーザー追放」へ
XはAI『Grok』が児童性的虐待コンテンツ(CSAM)を生成できる問題に対し、モデル修正ではなく、生成ユーザーのアカウントを永久停止し法的措置を講じる方針を発表。プラットフォームの責任を回避する姿勢に批判も。
AIが生成した責任を、ユーザーがすべて負うことになります。イーロン・マスク氏率いるXは、同社のAI「Grok」が児童性的虐待コンテンツ(CSAM)を含む不適切な画像を生成できる状態にあることに対し、モデルの改修ではなく、該当するコンテンツを生成したユーザーのアカウントを永久停止するという強硬姿勢を示しました。
X SafetyによるGrok不適切コンテンツ対策の公式声明
X Safetyの公式発表によると、Grokを利用して違法なコンテンツを生成したユーザーは、通常の投稿と同様の罰則を受けることになります。約1週間にわたる批判を受けて出されたこの声明では、AI側のフィルタリング機能の不備に対する謝罪はなく、むしろ「違法なプロンプト(指示語)を入力するユーザー」に責任があると指摘しています。
具体的には、CSAMを含む違法コンテンツの削除、アカウントの永久停止、そして必要に応じて各国の法執行機関と協力する方針を明らかにしました。Grokを使って画像を作る行為も、外部から画像をアップロードする行為と同じ法的な重みを持つと警告しています。
プラットフォームの責任か、ユーザーの自己責任か
この対応は、他のAI企業とは対照的です。一般的に生成AIを運営する企業は、モデル自体に強力なセーフガード(安全策)を設け、特定のキーワードや概念が入力された時点で生成を拒否するように設計します。しかし、Xは自由な表現を重視する姿勢を崩しておらず、出力結果の管理をユーザー側に委ねる形を選んだと見られます。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
X(旧Twitter)のイーロン・マスク氏が、新しいアルゴリズムを7日以内にオープンソース化すると発表。X アルゴリズム オープンソース 2026 化の背景と、透明性確保が業界に与える影響について解説します。
2026年1月10日、インドネシア政府は性的ディープフェイク問題を受け、xAIのGrokを一時遮断しました。欧州や英国でも規制の動きが加速する中、AIの安全性と自由を巡る国際的な対立が深まっています。xAI Grokの規制動向をChief Editorが分析します。
2026年1月、X(旧Twitter)が全米音楽出版社協会(NMPA)を独占禁止法違反で提訴。著作権法の武器化やライセンス強要を主張し、音楽業界との対立が激化しています。
X(旧Twitter)のGrokによるディープフェイク問題に対し、AppleとGoogleがApp Storeでの削除措置を講じない理由とは?シリコンバレーの倫理と権力の対立を分析します。