마이크로소프트 코파일럿 AI 환각이 부른 경찰의 오판과 신뢰 위기
웨스트 미들랜즈 경찰이 마이크로소프트 코파일럿의 AI 환각 정보를 근거로 축구 팬 입국을 금지했음을 시인했습니다. 공공 안전과 AI 책임론을 둘러싼 논란을 정리합니다.
부인으로 일관하던 경찰의 확신이 결국 무너졌습니다. 웨스트 미들랜즈 경찰청장은 수주 동안의 부인 끝에, 이스라엘 축구팀 마카비 텔아비브 팬들의 영국 입국을 금지한 결정에 마이크로소프트 코파일럿의 '환각(Hallucination)' 정보가 포함되었음을 시인했습니다.
마이크로소프트 코파일럿 AI 환각 사태의 전말
로이터와 현지 언론에 따르면, 이번 사건은 2025년 10월 버밍엄 안전 자문단(SAG) 회의에서 시작되었습니다. 당시 당국은 애스턴 빌라와 마카비 텔아비브의 경기를 앞두고 안전 여부를 검토 중이었습니다. 당시 영국 내 긴장은 최고조에 달해 있었습니다. 2025년 10월 2일 맨체스터의 한 유대교 회당에서 이슬람 극단주의자의 소행으로 추정되는 테러가 발생해 여러 명이 목숨을 잃었기 때문입니다.
경찰은 보안 검토 과정에서 마이크로소프트 코파일럿을 활용해 정보를 수집했습니다. 하지만 이 과정에서 AI는 사실과 다른 '환각' 정보를 생성했습니다. 경찰은 이 잘못된 데이터를 바탕으로 원정 팬들의 입국이 공공 안전에 심각한 위협이 된다고 판단하여 전면 금지라는 강수를 뒀습니다. 이는 시민 자유 침해 논란을 일으키며 법 집행 기관의 기술 오남용에 대한 거센 비판으로 이어졌습니다.
공공 안전과 AI 책임론의 충돌
경찰 측은 초기 보도에 대해 AI 도구 사용을 완강히 부인했으나, 내부 조사 결과 시스템 오류가 의사 결정에 결정적인 영향을 미쳤음이 드러났습니다. 전문가들은 공공 기관이 검증되지 않은 생성형 AI 결과물을 비판적 수용 없이 집행 근거로 삼은 점이 가장 큰 문제라고 지적합니다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
AI 기업들의 도움에도 불구하고 딥페이크 탐지 기술 발전이 더딘 이유와 진짜 콘텐츠 라벨링 시스템의 현실적 한계를 분석한다.
마이크로소프트가 해리포터 불법복제를 권장하는 블로그 게시물을 올렸다가 비판 후 삭제. AI 훈련용 데이터 확보의 윤리적 딜레마가 드러났다.
구글 딥마인드가 AI의 도덕적 판단 능력 평가 필요성을 제기했다. 코딩과 수학처럼 명확한 정답이 없는 윤리 문제를 AI는 어떻게 해결할 수 있을까?
유럽 개인정보보호위원회가 X의 Grok AI가 생성한 비동의 성적 이미지로 대규모 조사 착수. AI 윤리와 규제의 새로운 전환점
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요