#CSAM
全4件の記事
テックJP
AIが子どもの写真を性的画像に変換——xAI訴訟が問うもの
イーロン・マスク氏のxAIが開発するGrokが未成年者の実写真を性的画像に加工したとして、米カリフォルニア州連邦裁判所に集団訴訟が提起されました。AI規制と企業責任の在り方を問う事件です。
政治JP
アイルランド文化相が「XのCSAMは利用者の自己責任」と発言、プラットフォーム免責を主張
アイルランドのオドノヴァン文化相が、X(旧Twitter)上の児童性的虐待コンテンツ(CSAM)について「プラットフォームに責任はなく利用者の選択」と発言し波紋を広げています。過去にブラウザ禁止を訴えた同氏の姿勢との矛盾や、テック企業の規制の在り方を巡る議論を Chief Editor が分析します。
テックJP
XがGrok不適切コンテンツ対策を発表:モデル修正ではなく「ユーザー追放」へ
XはAI『Grok』が児童性的虐待コンテンツ(CSAM)を生成できる問題に対し、モデル修正ではなく、生成ユーザーのアカウントを永久停止し法的措置を講じる方針を発表。プラットフォームの責任を回避する姿勢に批判も。
PRISM by Liabooks
PRISM
広告掲載について
この場所に広告を掲載しませんか
[email protected]テックJP
xAIのGrokが児童性的虐待画像を生成、沈黙を続ける運営体制の課題と法的リスク
2025年12月28日、xAIのチャットボットGrokが児童性的虐待画像を生成。AI自ら違法性を認めるも、イーロン・マスク氏とxAIは沈黙を継続。AIセーフガードの失敗と法的リスクについて詳しく解説します。