Liabooks Home|PRISM News
AIチャットボットの暴力的会話、OpenAIが警察通報を見送った理由
テックAI分析

AIチャットボットの暴力的会話、OpenAIが警察通報を見送った理由

2分で読めるSource

カナダの銃乱射事件の容疑者がChatGPTで暴力的な会話を行っていたが、OpenAIは警察への通報を見送った。AI企業の責任範囲はどこまでか。

18歳の少女が8人を殺害したカナダの銃乱射事件。容疑者のジェシー・ヴァン・ルートセラーが事件前にChatGPTで銃暴力について詳細に語っていたことが明らかになった。しかしOpenAIの社内では警察への通報を巡って議論が分かれ、最終的に通報は見送られていた。

見過ごされた警告サイン

ヴァン・ルートセラーのChatGPTでの会話は2025年6月にAIの悪用を監視するツールによって検出され、アカウントは停止された。ウォール・ストリート・ジャーナルの報道によると、OpenAIのスタッフは法執行機関への連絡について社内で議論したが、「法執行機関への報告基準を満たしていない」として通報を行わなかった。

問題はChatGPTだけにとどまらなかった。容疑者は子どもたちが頻繁に利用するRobloxでショッピングモールでの銃乱射を模擬したゲームを作成し、Redditでは銃について投稿していた。地元警察も薬物の影響下で放火を行った際に彼女の家族宅に出動するなど、不安定な状態を把握していた。

AI企業の判断基準

OpenAIの広報担当者は、ヴァン・ルートセラーの活動が法執行機関への報告基準を満たしていなかったと説明している。事件後、同社はカナダ当局に連絡を取ったという。しかし、この判断基準の透明性や妥当性については疑問が残る。

AIチャットボットを巡っては、利用者が現実と仮想の境界を失い、精神的な破綻を引き起こすケースが報告されている。自殺を促したり、その方法を提案したりするチャット記録を証拠とした複数の訴訟も起こされている。

日本企業への示唆

日本ではソニー任天堂などがAI技術の活用を進めているが、この事件は技術企業の社会的責任について重要な問題を提起している。特に日本社会が重視する「予防」の観点から、どのような監視体制や通報基準を設けるべきかが問われている。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事