OpenAI、児童性的虐待コンテンツの通報が80倍に急増。AIの急成長が浮き彫りにした「安全」という課題
OpenAIが2025年上半期にNCMECへ送付した児童搾取に関する通報件数が前年同期比で80倍に。AIの普及に伴う安全対策の現状と、同社が直面する巨大な課題を深掘りします。
OpenAIが2025年上半期に「全米行方不明・搾取児童センター(NCMEC)」へ送付した児童搾取に関するインシデント報告が、2024年の同時期と比較して80倍に急増したことが、同社の最新の発表で明らかになりました。この急増は、AIプラットフォームが直面する安全性の課題と、その対策強化の現実を浮き彫りにしています。
NCMECの「サイバーチップライン」は、児童性的虐待コンテンツ(CSAM)などの報告を受け付ける、米国議会が認可した機関です。法律により、企業はプラットフォーム上で発見した児童搾取の疑いがある事案をここに報告する義務があります。
OpenAIの広報担当者、ギャビー・ライラ氏は声明で、この増加の背景にはいくつかの要因があると説明しました。同社は2024年末にかけて「現在および将来のユーザー増加に対応するため、報告をレビューし、措置を講じる能力を向上させる」ための投資を行ったとのこと。また、画像アップロードを可能にする製品機能の追加や、製品自体の人気が高まったことも報告数の増加に寄与したと述べています。
重要なのは、報告件数の増加が、必ずしも悪意のある活動の増加を意味するわけではないという点です。多くの場合、プラットフォームの自動モデレーション機能の改善や、報告基準の変更が数字を押し上げる要因となります。
この傾向はOpenAIに限った話ではありません。NCMEC自身の分析によると、生成AIに関連するサイバーチップラインへの報告は、2023年から2024年にかけて`1,325%`増加しており、業界全体の課題であることがうかがえます。
こうした状況を受け、OpenAIをはじめとするAI企業への社会的な監視の目は厳しくなっています。2025年夏には、全米44州の司法長官が連名でOpenAIやGoogleなどに書簡を送り、子どもたちをAI製品の危険から守るために「あらゆる権限を行使する」と警告しました。また、同社はチャットボットが子どもの死に関与したとして、複数の訴訟にも直面しています。
OpenAI側も対策を強化しています。2025年9月には、保護者が10代の子どものアカウント設定を変更できるペアレンタルコントロール機能をChatGPTに導入しました。さらに11月には「10代の安全ブループリント」を公開し、CSAMの検出能力を継続的に改善し、確認された場合はNCMECなどの関連当局に報告する方針を改めて示しました。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIが個人向け金融スタートアップHiroとメディア企業TBPNを相次いで買収。小規模な人材獲得の裏に、ChatGPTの収益化とブランドイメージという2つの存亡に関わる課題が透けて見える。
監視・分析企業パランティアが公開した22項目の思想声明。ICEとの契約、AI兵器論、文化の優劣論まで踏み込んだその内容は、テクノロジー企業の「イデオロギー」問題を改めて問いかけています。
OpenAIがSora動画生成ツールの開発を縮小し、リーダーのBill Peeblesが退社。AI企業の「選択と集中」が加速する中、日本企業や産業への影響を多角的に読み解きます。
OpenAIのSora開発者ビル・ピーブルズと科学研究責任者ケビン・ウェイルが相次いで退社。「副業」を切り捨て、企業向けAIに集中する戦略転換の内側と、その波紋を読み解く。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加