West Midlands Police が Microsoft Copilot のハルシネーションによる誤認を認める:サッカーファンへの禁止措置騒動
ウエスト・ミッドランズ警察が、Microsoft Copilotのハルシネーションによる誤情報をサッカーファンの禁止措置に利用したことを認めました。AIの嘘が現実の政策に影響を与えた事例を詳しく解説します。
AIが生成した「嘘」が、現実の公共政策を動かしてしまいました。数週間にわたりAIツールの使用を否定し続けてきたウエスト・ミッドランズ警察の本部長は、イスラエルのサッカーチーム「マッカビ・テルアビブ」のファンに対する英国への入国禁止措置に、Microsoft Copilotが生成したハルシネーション(もっともらしい嘘)が含まれていたことをついに認めました。
West Midlands Police Microsoft Copilot の誤情報を意思決定に採用
事の発端は 2025年10月、バーミンガムの安全諮問グループ(SAG)がアストン・ヴィラ対マッカビ・テルアビブの試合を安全に開催できるか検討した際に遡ります。当時、10月2日にマンチェスターのシナゴーグで発生したテロ事件を受け、社会的な緊張が高まっていました。警察側は当初、独自のインテリジェンスに基づいた判断だと主張していましたが、実際にはAIが生成した不正確な情報をリスク評価に組み込んでいたことが判明しました。
LLMの限界と公共安全のリスク
LLM(大規模言語モデル)は、インターネット上の膨大なデータを学習していますが、時として事実に基づかない情報を生成する「ハルシネーション」を引き起こします。今回のケースでは、Microsoft Copilotが示した誤った治安情報が、特定の団体を排除する根拠の一つとして利用されました。人権団体や市民自由団体からは、検証されていないAI情報を法執行機関がそのまま利用することへの懸念が噴出しています。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米国の監視・防衛テクノロジー企業パランティアで、移民摘発やイランへの軍事攻撃への関与をめぐり、社員たちが内部から声を上げ始めている。テクノロジー企業の倫理的責任とは何かを問う。
監視・分析企業パランティアが公開した22項目の思想声明。ICEとの契約、AI兵器論、文化の優劣論まで踏み込んだその内容は、テクノロジー企業の「イデオロギー」問題を改めて問いかけています。
テキサス州からカリフォルニアへ——OpenAIのサム・アルトマンCEO殺害を企てたとして逮捕された男の事件は、AI業界が直面する「見えないリスク」を浮き彫りにしています。技術の進歩と社会的摩擦の間で、私たちは何を見落としてきたのでしょうか。
MetaのRay-Banスマートグラスへの顔認識機能「Name Tag」搭載計画に対し、70以上の市民団体が廃止を要求。ストーカーや当局による悪用リスク、日本社会への影響を多角的に考察します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加