West Midlands Police が Microsoft Copilot のハルシネーションによる誤認を認める:サッカーファンへの禁止措置騒動
ウエスト・ミッドランズ警察が、Microsoft Copilotのハルシネーションによる誤情報をサッカーファンの禁止措置に利用したことを認めました。AIの嘘が現実の政策に影響を与えた事例を詳しく解説します。
AIが生成した「嘘」が、現実の公共政策を動かしてしまいました。数週間にわたりAIツールの使用を否定し続けてきたウエスト・ミッドランズ警察の本部長は、イスラエルのサッカーチーム「マッカビ・テルアビブ」のファンに対する英国への入国禁止措置に、Microsoft Copilotが生成したハルシネーション(もっともらしい嘘)が含まれていたことをついに認めました。
West Midlands Police Microsoft Copilot の誤情報を意思決定に採用
事の発端は 2025年10月、バーミンガムの安全諮問グループ(SAG)がアストン・ヴィラ対マッカビ・テルアビブの試合を安全に開催できるか検討した際に遡ります。当時、10月2日にマンチェスターのシナゴーグで発生したテロ事件を受け、社会的な緊張が高まっていました。警察側は当初、独自のインテリジェンスに基づいた判断だと主張していましたが、実際にはAIが生成した不正確な情報をリスク評価に組み込んでいたことが判明しました。
LLMの限界と公共安全のリスク
LLM(大規模言語モデル)は、インターネット上の膨大なデータを学習していますが、時として事実に基づかない情報を生成する「ハルシネーション」を引き起こします。今回のケースでは、Microsoft Copilotが示した誤った治安情報が、特定の団体を排除する根拠の一つとして利用されました。人権団体や市民自由団体からは、検証されていないAI情報を法執行機関がそのまま利用することへの懸念が噴出しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIのロボティクス責任者が国防総省との契約に抗議し辞任。AI企業の軍事利用をめぐるガバナンス問題が浮き彫りに。日本企業や社会への示唆を考える。
GrammarlyのAI機能が許可なく実在の編集者の名前を使用して文章添削を提供。AI時代の同意とプライバシーの新たな課題が浮上。
米国防総省がAnthropic社を供給リスク指定し、OpenAIとの契約に切り替え。ChatGPTアンインストール急増の背景と軍事AI利用の複雑な現実を探る。
OpenAIが米軍との契約で社内混乱を招いた背景には、曖昧なポリシーと不透明な意思決定プロセスがあった。AI企業のガバナンスに求められるものとは。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加