英國警察 Microsoft Copilot 幻覺引發球迷禁令爭議:執法機構首度坦承 AI 決策失誤
英國西米德蘭茲郡警察局承認,因採納 Microsoft Copilot 的 AI 幻覺資訊,導致錯誤禁止特拉維夫馬卡比球迷。此事件引發關於執法機關使用 AI 倫理的廣泛討論。
警察說謊了。在連續數週否認使用AI工具後,英國西米德蘭茲郡警察局局長終於公開承認,一項禁止特拉維夫馬卡比隊球迷入境的爭議性決定,竟然直接參考了來自 Microsoft Copilot 產生的「幻覺」資訊。這標誌著AI錯誤資訊首次直接干預重大公共安全決策並引發社會動盪。
英國警察 Microsoft Copilot 幻覺與決策失誤始末
回顧 2025年10月,伯明翰安全顧問小組(SAG)召開會議,討論阿斯頓維拉對陣特拉維夫馬卡比的賽事安全性。當時由於 10月2日 曼徹斯特猶太教堂發生恐怖襲擊,導致數人喪生,社會氣氛極度緊張。警方在評估風險時,採納了由AI生成的錯誤情報,將無辜的球迷視為潛在威脅,進而實施禁令。
執法透明度與演算法偏見
儘管警察局最初堅稱該決定是基於專業情報,但最終在輿論壓力下承認了 Microsoft Copilot 的角色。這一事件引發了科技政策制定者與民權團體的猛烈批評。專家指出,執法機關若過度依賴未經核實的AI數據,將導致偏見被演算法放大,甚至引發嚴重的外交與人權問題。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
五角大廈與Anthropic的衝突,暴露了美國AI治理的真空地帶。數百位專家聯署的「親人類宣言」,從民間提出了政府遲遲未能給出的答案。這對華人世界意味著什麼?
美國防部將Anthropic列為供應鏈風險企業,禁止國防承包商使用Claude AI。這項前所未有的決定揭示了AI時代國安政策的新挑戰。
印度Make in India計劃十年後製造業佔GDP比重跌至14.7%,R&D投資萎縮。分析技術民族主義如何走向依賴,對亞洲科技發展的啟示
ICE和CBP自2023年來向微軟、亞馬遜、Google等科技公司採購數億美元服務。揭露支撐美國移民執法機器的龐大技術基礎設施
观点
分享你对这篇文章的看法
登录加入讨论