Liabooks Home|PRISM News
英國警察使用AI工具導致錯誤決策的示意圖
TechAI分析

英國警察 Microsoft Copilot 幻覺引發球迷禁令爭議:執法機構首度坦承 AI 決策失誤

2分钟阅读Source

英國西米德蘭茲郡警察局承認,因採納 Microsoft Copilot 的 AI 幻覺資訊,導致錯誤禁止特拉維夫馬卡比球迷。此事件引發關於執法機關使用 AI 倫理的廣泛討論。

警察說謊了。在連續數週否認使用AI工具後,英國西米德蘭茲郡警察局局長終於公開承認,一項禁止特拉維夫馬卡比隊球迷入境的爭議性決定,竟然直接參考了來自 Microsoft Copilot 產生的「幻覺」資訊。這標誌著AI錯誤資訊首次直接干預重大公共安全決策並引發社會動盪。

英國警察 Microsoft Copilot 幻覺與決策失誤始末

回顧 2025年10月,伯明翰安全顧問小組(SAG)召開會議,討論阿斯頓維拉對陣特拉維夫馬卡比的賽事安全性。當時由於 10月2日 曼徹斯特猶太教堂發生恐怖襲擊,導致數人喪生,社會氣氛極度緊張。警方在評估風險時,採納了由AI生成的錯誤情報,將無辜的球迷視為潛在威脅,進而實施禁令。

執法透明度與演算法偏見

儘管警察局最初堅稱該決定是基於專業情報,但最終在輿論壓力下承認了 Microsoft Copilot 的角色。這一事件引發了科技政策制定者與民權團體的猛烈批評。專家指出,執法機關若過度依賴未經核實的AI數據,將導致偏見被演算法放大,甚至引發嚴重的外交與人權問題。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

相关文章