OpenAI、カナダ銃乱射事件の容疑者を事前に検知も通報せず
ChatGPTを運営するOpenAIが、カナダで8人が死亡した銃乱射事件の容疑者を事前に検知していたが、警察への通報基準に満たないと判断していたことが判明。AI企業の社会的責任が問われる。
8人が死亡したカナダ・ブリティッシュコロンビア州の銃乱射事件で、ChatGPTを運営するOpenAIが事件の8か月前から容疑者のアカウントを問題視していたことが明らかになった。しかし同社は「警察への通報基準に満たない」と判断し、結果的に悲劇を防げなかった。
検知から悲劇まで8か月の空白
OpenAIは2025年6月、18歳のJesse Van Rootselaarのアカウントを「暴力活動の促進」の疑いで検知した。同社の不正使用検出システムが、容疑者のChatGPT利用パターンに異常を感知したのだ。
当時OpenAIはカナダ王立騎馬警察(RCMP)への通報を検討したが、「差し迫った信頼できる身体的危害のリスク」という社内基準に達していないと判断。アカウント停止にとどめた。
その8か月後の2026年2月、Van Rootselaarは母親と義理の兄弟を殺害した後、Tumbler Ridgeの学校で教師1人と12〜13歳の生徒5人を含む8人を射殺し、自らも命を絶った。カナダでは2020年以来最悪の銃乱射事件となった。
AI企業の「予防的責任」という新たな課題
OpenAIの対応は技術的には適切だった。同社は事件後直ちにRCMPに情報提供し、捜査に協力している。しかし、AIが人間の危険な行動を事前に検知できる時代に、企業はどこまで介入すべきなのか。
従来のソーシャルメディア企業は「事後対応」が主流だった。投稿された有害コンテンツを削除し、アカウントを停止する。しかしChatGPTのような対話型AIは、ユーザーの思考プロセスや計画段階の意図まで把握できる可能性がある。
OpenAIの現在の通報基準は「差し迫った」「信頼できる」危害に限定されている。しかし8か月前の検知が示すように、危険な兆候は必ずしも「差し迫って」いるわけではない。長期間にわたる心理的変化や計画の萌芽を、どう評価すべきなのか。
日本への示唆:技術と社会の調和
日本ではソフトバンクやNTTなどがAI開発を加速させている。今回の事件は、日本のAI企業にとっても重要な教訓となる。日本社会が重視する「予防」と「調和」の文化において、AI企業はより積極的な社会貢献が期待される可能性がある。
特に日本では、学校での安全確保が社会的関心事だ。AI技術を活用した早期警告システムの開発や、教育現場での心理的支援への応用など、技術の社会実装において日本独自のアプローチが求められるかもしれない。
また、個人情報保護法の厳格な日本において、AIによる行動予測と通報のバランスをどう取るかは、法的・倫理的な課題となるだろう。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
トランプ政権が国家AIフレームワークを発表。州ごとに異なるAI規制を連邦法で統一し、中国との技術競争で優位を確保する狙いとは。日本企業への影響も解説。
2026年3月21日、ソウル・光化門広場でBTSの無料コンサートが開催。警察は10万人規模の群衆制御ゾーンを設置し、8,200人の安全要員を動員。2022年梨泰院事故の教訓が、この前例のない安全計画を形づくった。
米軍がイランへの作戦にPalantirのAIシステムを使用。小学校への誤爆が法的・倫理的論争を呼ぶ中、AIと戦争の境界線はどこにあるのか。国際法・技術倫理の観点から考える。
米国防総省のヘグセス長官に対し、民主党議員120人超がイランの小学校爆撃におけるAI標的選定の関与を問いただした。現代戦争におけるAI倫理の核心的問題が浮上している。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加