AIが子どもを傷つけるとき、誰が責任を負うのか
イーロン・マスク氏のxAIが開発するGrokモデルを使って未成年の性的画像が生成されたとして、テネシー州の10代の少女3人がカリフォルニア連邦裁判所に集団訴訟を提起した。AI企業の安全対策と法的責任の問題が問われている。
AIが生成した画像の中に、実在する少女の顔があった。
2026年3月16日、テネシー州に住む10代の少女3人が、イーロン・マスク氏のAI企業xAIを相手取り、カリフォルニア州連邦地裁に集団訴訟を起こしました。訴状によれば、同社が開発するGrokモデルを通じて、彼女たちを描写した児童性的虐待素材(CSAM)が生成されたとされています。これはGrokによって生成されたCSAMの被害を受けた未成年が企業を直接訴えた、初めてのケースとされています。
何が起きたのか
加害者はxAIのサービスに直接アクセスしたわけではありませんでした。彼はGrokの技術をライセンス供与された第三者製アプリを使用し、そのアプリがxAIのサーバーを経由して画像を生成していたと訴状は主張しています。加害者はソーシャルメディア、卒業アルバム、そして少女が直接送った写真を収集し、それを元にフォトリアリスティックな性的画像や動画を生成しました。その中には、原告の1人が衣服を脱いでいく様子を映した動画も含まれており、AI生成であることを示すラベルは一切付いていなかったといいます。
被害は3人にとどまりません。加害者は少なくとも18人の未成年の画像を使って性的素材を生成し、それをTelegramやDiscordで他の児童性的虐待コンテンツと交換していたとされています。加害者は2025年12月末に逮捕されました。
訴状が指摘するのは、単なる「悪用」の問題ではありません。xAIが業界標準の安全対策——コンテンツフィルター、レッドチームテスト、既知のCSAMデータベースとのハッシュ照合、当局への義務的報告——を意図的に回避していたと主張しています。GoogleやOpenAIといった競合他社はこれらの対策を採用しているにもかかわらず、です。さらに訴状は、xAIが米国外を拠点とすることが多い第三者開発者にGrokをライセンス提供することで、意図的に法的責任から距離を置こうとしていたと指摘します。
訴訟は連邦法上の児童ポルノの製造・配布・所持に関する「マーシャ法」違反、人身売買被害者保護法、カリフォルニア州法上の不正競争、パブリシティ権侵害、複数の過失など、13件の罪状を列挙しています。原告側は各違反につき少なくとも15万ドルの法定損害賠償、懲罰的損害賠償、そしてxAIに問題行動の停止を命じる裁判所命令を求めています。原告側弁護士のヴァネッサ・ベール=ジョーンズ氏はNPRに対し、「性的AIコンテンツを許容することが、もはやビジネス上の合理的な選択にならないようにしたい」と述べています。
3人の少女はいずれも深刻な精神的苦痛を訴えています。調査開始に協力したジェーン・ドウ1は学校での学業に支障をきたし、特別な配慮を必要としています。ジェーン・ドウ2は不安による睡眠障害で医療的支援を受け、自分の卒業式さえ恐れるようになりました。ジェーン・ドウ3は、出会う人が既に自分の画像を見ているかもしれないという恐怖と常に向き合っています。xAIはNPRのコメント要請に応じていません。
なぜ今、この訴訟が重要なのか
この訴訟のタイミングには、複数の意味が重なります。
まず、生成AIの能力が急速に向上する中で、「誰でも使えるリアルな画像生成」が現実になっています。技術の民主化は利便性をもたらす一方で、悪用のハードルを劇的に下げました。今回の事件は、その悪用が最も脆弱な存在——子どもたち——に向けられたケースです。
次に、ライセンスモデルの問題です。xAIのようにAPIや技術を第三者に提供するビジネスモデルは、AI業界全体で広く採用されています。もし今回の訴訟で「ライセンス提供元にも責任がある」という判断が下れば、業界全体のビジネスモデルに影響を与えかねません。日本企業も例外ではありません。ソニー、NTT、富士通など、AIサービスを自社開発または外部調達して展開する企業にとって、サードパーティへの技術提供における安全基準の整備は、もはや「コンプライアンスの問題」ではなく「経営リスクの問題」になりつつあります。
多様な視点から考える
技術企業の立場から見れば、第三者アプリによる悪用まで責任を負うことは、イノベーションを阻害しかねないという懸念があります。包丁メーカーが包丁による犯罪に責任を負わないように、技術提供者と悪用者の責任は区別されるべきだという論理です。
一方、被害者・市民社会の立場からすれば、「技術を提供した側には、その技術が引き起こす被害を予見し防ぐ義務がある」という考え方が強まっています。特に、競合他社が採用している安全対策を意図的に省略したという主張が事実であれば、過失の認定は難しくないかもしれません。
規制当局の視点では、この訴訟は既存の法律がAI時代にどこまで対応できるかを試す試金石になります。日本でも2025年に施行された改正プロバイダ責任制限法や、検討が進むAI規制法制の議論に影響を与える可能性があります。
文化的な文脈でいえば、日本では「ディープフェイク」被害、特に女性や未成年を標的にした非合意的な性的画像の問題が近年深刻化しています。2023年には非合意的なポルノグラフィーを規制する法律が強化されましたが、AI生成コンテンツへの対応は依然として課題が残ります。この米国の訴訟の行方は、日本の法整備にとっても参照点になり得ます。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米商務省がAIチップの輸出規制案を突如撤回。半導体産業、日本企業、そして米中技術覇権争いにどんな影響を与えるのか。背景と深層を読み解く。
イーロン・マスク氏がxAIの組織的失敗を公式に認め、再建を宣言。共同創業者の相次ぐ離脱、SpaceXとの合併、そして日本のAI産業への波紋を読み解く。
米国防総省がAI企業Anthropicをサプライチェーンリスクに指定。Microsoftが法廷支援に乗り出した今、AI技術と国家安全保障の境界線はどこにあるのか。日本企業への影響も含めて考察する。
イーロン・マスクのxAIがミシシッピ州で41基の天然ガスタービンを使った発電所建設許可を取得。地域住民の反発と環境問題が浮き彫りになる中、AI産業の電力消費問題は日本企業にも無縁ではない。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加