OpenAI、児童性的虐待コンテンツの通報が80倍に急増。AIの急成長が浮き彫りにした「安全」という課題
OpenAIが2025年上半期にNCMECへ送付した児童搾取に関する通報件数が前年同期比で80倍に。AIの普及に伴う安全対策の現状と、同社が直面する巨大な課題を深掘りします。
OpenAIが2025年上半期に「全米行方不明・搾取児童センター(NCMEC)」へ送付した児童搾取に関するインシデント報告が、2024年の同時期と比較して80倍に急増したことが、同社の最新の発表で明らかになりました。この急増は、AIプラットフォームが直面する安全性の課題と、その対策強化の現実を浮き彫りにしています。
NCMECの「サイバーチップライン」は、児童性的虐待コンテンツ(CSAM)などの報告を受け付ける、米国議会が認可した機関です。法律により、企業はプラットフォーム上で発見した児童搾取の疑いがある事案をここに報告する義務があります。
OpenAIの広報担当者、ギャビー・ライラ氏は声明で、この増加の背景にはいくつかの要因があると説明しました。同社は2024年末にかけて「現在および将来のユーザー増加に対応するため、報告をレビューし、措置を講じる能力を向上させる」ための投資を行ったとのこと。また、画像アップロードを可能にする製品機能の追加や、製品自体の人気が高まったことも報告数の増加に寄与したと述べています。
重要なのは、報告件数の増加が、必ずしも悪意のある活動の増加を意味するわけではないという点です。多くの場合、プラットフォームの自動モデレーション機能の改善や、報告基準の変更が数字を押し上げる要因となります。
この傾向はOpenAIに限った話ではありません。NCMEC自身の分析によると、生成AIに関連するサイバーチップラインへの報告は、2023年から2024年にかけて`1,325%`増加しており、業界全体の課題であることがうかがえます。
こうした状況を受け、OpenAIをはじめとするAI企業への社会的な監視の目は厳しくなっています。2025年夏には、全米44州の司法長官が連名でOpenAIやGoogleなどに書簡を送り、子どもたちをAI製品の危険から守るために「あらゆる権限を行使する」と警告しました。また、同社はチャットボットが子どもの死に関与したとして、複数の訴訟にも直面しています。
OpenAI側も対策を強化しています。2025年9月には、保護者が10代の子どものアカウント設定を変更できるペアレンタルコントロール機能をChatGPTに導入しました。さらに11月には「10代の安全ブループリント」を公開し、CSAMの検出能力を継続的に改善し、確認された場合はNCMECなどの関連当局に報告する方針を改めて示しました。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIのCFOサラ・フライヤー氏が2026年の戦略を発表。インフラへの巨額投資を継続しつつ、医療、科学、企業分野での実用的なAI導入を加速させ、技術と活用のギャップを埋める方針です。
イーロン・マスク氏がOpenAIとMicrosoftに対し、最大1,340億ドルの損害賠償を求める通知を提出。初期の貢献が価値の75%を占めると主張する算定根拠を詳しく解説します。
セコイア・キャピタルがAnthropicの250億ドル規模の資金調達に参加。OpenAIやxAIにも投資する同社の戦略転換と、評価額3,500億ドルに達したAI市場の過熱をChief Editorが分析します。
イーロン・マスク率いるxAIのチャットボット「Grok」は、なぜわずか2ヶ月のトレーニングで誕生したのか?xAI Grok 開発の背景にあるアンチWoke思想と、驚異的な開発スピードに迫ります。