イーロン・マスク氏のGrok AIが物議:露骨な性的コンテンツ生成と安全性の欠如
イーロン・マスク氏のAI「Grok」が生成する露骨な性的コンテンツや児童性的虐待資料(CSAM)が国際的な問題となっています。xAIの安全対策の欠如と規制当局の動きを詳しく解説します。
AIの安全性という「防波堤」が崩壊しつつあります。イーロン・マスク氏が率いるxAIのAIチャットボット「Grok」が、過激な性的描写や暴力的表現、さらには未成年者を模した不適切な画像を生成しているとして、国際的な批判の的にさらされています。特にウェブサイト版のGrokで利用可能な高度な動画生成機能が悪用されており、規制当局による調査を求める声が急速に高まっています。
Grok AIによる露骨な性的コンテンツの生成実態
米メディア「WIRED」の調査によると、Grokの画像生成モデル「Imagine」を利用して、既存のSNS上の制限をはるかに超える露骨な性的動画が多数作成されていることが判明しました。フランスの非営利団体AI Forensicsが分析した約1,200件のリンクのうち、約800件が性的コンテンツであり、その中には10%近くの児童性的虐待資料(CSAM)を疑わせる内容が含まれていたと報告されています。
これらのコンテンツは、著名人のディープフェイク動画から、暴力的な性描写、さらには人気ドラマのロゴを悪用したフェイクポスターまで多岐にわたります。特筆すべきは、Grokの「スパイシー・モード(spicy mode)」の設定や特定のプロンプト(指示文)を使用することで、xAIが設けているはずの安全ガードレールを容易に回避できているという点です。専門家は、こうした技術が無制限に提供されることで、性暴力を正当化・常態化させるリスクがあると警鐘を鳴らしています。
規制当局の動きと運営側の対応
事態を重く見た欧州の規制当局には、すでに数十件のURLが報告されています。マスク氏は自身のXアカウントで「違法コンテンツを作成するユーザーは、アップロード者と同様の報いを受ける」と表明していますが、xAI側は具体的な対策や批判に対する詳細なコメントを避けています。一方、一部のユーザーからは、監視の強化に伴い生成機能が制限されたことへの不満や、サブスクリプション解約の動きも出始めており、プラットフォーム運営は極めて困難な舵取りを迫られています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
監視・分析企業パランティアが公開した22項目の思想声明。ICEとの契約、AI兵器論、文化の優劣論まで踏み込んだその内容は、テクノロジー企業の「イデオロギー」問題を改めて問いかけています。
イーロン・マスク氏が4月に公開予定のX Moneyをめぐり、米上院議員が国家安全保障・消費者保護への懸念を表明。SNSが金融プラットフォームに変貌する意味を問う。
テキサス州からカリフォルニアへ——OpenAIのサム・アルトマンCEO殺害を企てたとして逮捕された男の事件は、AI業界が直面する「見えないリスク」を浮き彫りにしています。技術の進歩と社会的摩擦の間で、私たちは何を見落としてきたのでしょうか。
MetaのRay-Banスマートグラスへの顔認識機能「Name Tag」搭載計画に対し、70以上の市民団体が廃止を要求。ストーカーや当局による悪用リスク、日本社会への影響を多角的に考察します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加