OpenAI、児童性的虐待コンテンツの通報が80倍に急増。AIの急成長が浮き彫りにした「安全」という課題
OpenAIが2025年上半期にNCMECへ送付した児童搾取に関する通報件数が前年同期比で80倍に。AIの普及に伴う安全対策の現状と、同社が直面する巨大な課題を深掘りします。
OpenAIが2025年上半期に「全米行方不明・搾取児童センター(NCMEC)」へ送付した児童搾取に関するインシデント報告が、2024年の同時期と比較して80倍に急増したことが、同社の最新の発表で明らかになりました。この急増は、AIプラットフォームが直面する安全性の課題と、その対策強化の現実を浮き彫りにしています。
NCMECの「サイバーチップライン」は、児童性的虐待コンテンツ(CSAM)などの報告を受け付ける、米国議会が認可した機関です。法律により、企業はプラットフォーム上で発見した児童搾取の疑いがある事案をここに報告する義務があります。
OpenAIの広報担当者、ギャビー・ライラ氏は声明で、この増加の背景にはいくつかの要因があると説明しました。同社は2024年末にかけて「現在および将来のユーザー増加に対応するため、報告をレビューし、措置を講じる能力を向上させる」ための投資を行ったとのこと。また、画像アップロードを可能にする製品機能の追加や、製品自体の人気が高まったことも報告数の増加に寄与したと述べています。
重要なのは、報告件数の増加が、必ずしも悪意のある活動の増加を意味するわけではないという点です。多くの場合、プラットフォームの自動モデレーション機能の改善や、報告基準の変更が数字を押し上げる要因となります。
この傾向はOpenAIに限った話ではありません。NCMEC自身の分析によると、生成AIに関連するサイバーチップラインへの報告は、2023年から2024年にかけて`1,325%`増加しており、業界全体の課題であることがうかがえます。
こうした状況を受け、OpenAIをはじめとするAI企業への社会的な監視の目は厳しくなっています。2025年夏には、全米44州の司法長官が連名でOpenAIやGoogleなどに書簡を送り、子どもたちをAI製品の危険から守るために「あらゆる権限を行使する」と警告しました。また、同社はチャットボットが子どもの死に関与したとして、複数の訴訟にも直面しています。
OpenAI側も対策を強化しています。2025年9月には、保護者が10代の子どものアカウント設定を変更できるペアレンタルコントロール機能をChatGPTに導入しました。さらに11月には「10代の安全ブループリント」を公開し、CSAMの検出能力を継続的に改善し、確認された場合はNCMECなどの関連当局に報告する方針を改めて示しました。
This content is AI-generated based on source articles. While we strive for accuracy, errors may occur. We recommend verifying with the original source.
Related Articles
OpenAI is using automated red teaming with reinforcement learning to strengthen ChatGPT Atlas against prompt injection attacks, creating a proactive loop to discover and patch exploits early.
OpenAI now has over 1 million business customers worldwide, including PayPal, Cisco, and Moderna. This milestone shows generative AI is becoming a core enterprise tool.
OpenAI has launched 'Your Year with ChatGPT,' a new feature similar to Spotify Wrapped that creates a personalized annual review of your AI conversations, complete with awards, poems, and images.
OpenAI's reports of child exploitation to NCMEC surged 80x in the first half of 2025. The company cites user growth and better detection, but the spike highlights the immense content moderation and safety challenges facing the rapidly scaling AI industry.