英國警察 Microsoft Copilot 幻覺引發球迷禁令爭議:執法機構首度坦承 AI 決策失誤
英國西米德蘭茲郡警察局承認,因採納 Microsoft Copilot 的 AI 幻覺資訊,導致錯誤禁止特拉維夫馬卡比球迷。此事件引發關於執法機關使用 AI 倫理的廣泛討論。
警察說謊了。在連續數週否認使用AI工具後,英國西米德蘭茲郡警察局局長終於公開承認,一項禁止特拉維夫馬卡比隊球迷入境的爭議性決定,竟然直接參考了來自 Microsoft Copilot 產生的「幻覺」資訊。這標誌著AI錯誤資訊首次直接干預重大公共安全決策並引發社會動盪。
英國警察 Microsoft Copilot 幻覺與決策失誤始末
回顧 2025年10月,伯明翰安全顧問小組(SAG)召開會議,討論阿斯頓維拉對陣特拉維夫馬卡比的賽事安全性。當時由於 10月2日 曼徹斯特猶太教堂發生恐怖襲擊,導致數人喪生,社會氣氛極度緊張。警方在評估風險時,採納了由AI生成的錯誤情報,將無辜的球迷視為潛在威脅,進而實施禁令。
執法透明度與演算法偏見
儘管警察局最初堅稱該決定是基於專業情報,但最終在輿論壓力下承認了 Microsoft Copilot 的角色。這一事件引發了科技政策制定者與民權團體的猛烈批評。專家指出,執法機關若過度依賴未經核實的AI數據,將導致偏見被演算法放大,甚至引發嚴重的外交與人權問題。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
美國準備對中國大規模竊取AI知識產權展開反制。從DeepSeek到Anthropic指控,蒸餾攻擊如何重塑中美AI競賽格局,對華人世界意味著什麼?
MIT Technology Review在EmTech AI年會發布「2026年AI現在最重要的10件事」,涵蓋LLM監控擴張、AI疲乏時代等議題,揭示AI普及後社會面臨的深層挑戰。
川普政府透過大陪審傳票要求Reddit交出批評移民執法局用戶的個資,引發數位匿名權與政府監控的根本爭議。這對全球網路用戶意味著什麼?
微軟Copilot使用條款中「僅供娛樂目的」的文字引發熱議。OpenAI、xAI也有類似免責聲明。當AI公司警告用戶別信任自家產品,這場矛盾揭示了什麼?
观点
分享你对这篇文章的看法
登录加入讨论