AI가 폭격 순서를 정한다면
미 국방부가 생성형 AI를 군사 표적 우선순위 결정에 활용하는 방안을 공개했다. ChatGPT와 Grok이 전장의 의사결정에 개입하는 미래, 무엇이 달라지고 무엇이 위험한가.
누군가 죽어야 할 때, 그 순서를 AI가 정한다면.
이것이 현재 미 국방부가 검토 중인 시나리오다. 단순한 연구 가설이 아니다. 국방부 관리가 직접 공개한 내용이다.
무슨 일이 일어나고 있나
미 국방부 관리는 최근 생성형 AI 시스템을 군사 표적 우선순위 결정에 활용하는 구체적인 방식을 공개했다. 시나리오는 이렇다. 먼저 가능한 표적 목록을 기밀 환경용으로 구축된 생성형 AI 시스템에 입력한다. 그러면 AI가 정보를 분석하고 어떤 표적을 먼저 타격할지 우선순위를 제시한다. 최종 판단은 인간이 내린다—적어도 공식적으로는.
더 구체적인 이름도 나왔다. OpenAI의 ChatGPT와 xAI의 Grok이 이런 고위험 군사 결정의 중심에 놓일 수 있다는 것이다.
같은 날 또 다른 파장도 일었다. 펜타곤의 CTO는 Anthropic의 Claude가 국방 공급망을 "오염시킬" 것이라고 주장했다. 이유는 모델에 내장된 "정책적 편향" 때문이라고 했다. Anthropic 입장에서는 당혹스러운 상황이다. OpenAI가 국방부와 협력 범위를 넓히는 동안, Anthropic은 안전성 원칙을 이유로 사실상 배제되는 모양새다.
여기까지 오게 된 맥락
미군이 AI를 전장에 도입하려는 시도는 어제오늘 일이 아니다. DARPA는 수십 년간 자율 시스템 연구를 이어왔고, 드론 기술은 이미 전쟁의 문법을 바꿨다. 우크라이나-러시아 전쟁은 이 흐름을 가속했다. 우크라이나는 현재 자국의 실전 전장 데이터를 동맹국에 제공해 드론과 무인기 AI 훈련에 활용하도록 하고 있다. 라트비아의 스타트업 Global Wolf Motors가 만든 군용 스쿠터가 개전 몇 주 만에 최전선에 투입된 것처럼, 민간 기술이 군사 목적으로 전환되는 속도는 전례 없이 빨라졌다.
생성형 AI의 등장은 이 흐름에 새로운 차원을 더했다. 이제 문제는 '자율 무기를 쓸 것인가'가 아니라 '인간이 AI의 판단을 얼마나 믿을 것인가'로 바뀌었다.
왜 지금 이 뉴스가 중요한가
타이밍이 의미심장하다. OpenAI는 최근 군사·정보기관과의 협력을 금지하던 사용 정책을 조용히 완화했다. 동시에 Sam Altman CEO는 투자자 행사에서 "지능은 전기나 수도처럼 유틸리티가 될 것"이라며 미터제 판매 모델을 제시했다. AI를 인프라로 보는 시각이 군사 영역으로 확장되는 것은 논리적 귀결처럼 보인다—그러나 전기와 폭격 결정은 같은 선상에 놓일 수 없다.
한국에도 무관한 이야기가 아니다. 한국군은 이미 AI 기반 감시·정찰 시스템 도입을 추진 중이며, LIG넥스원, 한화시스템 등 방산 기업들은 AI 무기체계 개발에 속도를 내고 있다. 글로벌 표준이 미국 주도로 형성될 경우, 한국 방산업계의 기술 선택과 윤리 기준도 그 흐름을 따를 가능성이 높다.
엇갈리는 시각들
국방부 입장에서 이 접근법의 논리는 명확하다. 전장에서 수백 개의 표적 정보를 인간이 실시간으로 처리하는 것은 물리적으로 불가능하다. AI가 분석을 보조하면 오히려 인간의 판단 부담을 줄이고 오류를 줄일 수 있다는 것이다. '인간이 최종 결정한다'는 원칙을 유지하는 한, 도구의 활용은 정당하다는 논리다.
AI 윤리 연구자들의 시각은 다르다. '인간이 최종 결정'이라는 원칙이 실제로 얼마나 의미 있는지 묻는다. AI가 우선순위를 제시하면 인간은 그 판단을 뒤집기 어렵다. 심리학에서 말하는 '자동화 편향(automation bias)'—기계의 판단을 과신하는 경향—이 작동하기 때문이다. 결국 '인간의 최종 결정'은 AI 추천에 도장을 찍는 절차로 전락할 수 있다.
AI 기업들 사이에서도 균열이 보인다. OpenAI와 xAI는 군사 협력을 사업 기회로 보는 쪽으로 기울었다. Anthropic은 안전성 원칙을 고수하다 오히려 '공급망 오염원'으로 낙인찍혔다. 이 구도는 AI 업계 전체에 질문을 던진다. 안전 원칙을 지키는 기업이 시장에서 배제된다면, 업계의 자정 능력은 어디서 나오는가.
국제법 전문가들은 또 다른 층위의 문제를 지적한다. 국제인도법은 민간인과 전투원을 구별하고, 공격의 비례성을 판단하도록 요구한다. AI가 이 판단을 내렸을 때 민간인 피해가 발생하면, 책임은 누구에게 있는가. 알고리즘? 개발사? 지휘관?
기자
관련 기사
미국 병원의 65%가 AI 진단 도구를 쓰지만, 실제 환자 건강에 도움이 됐는지 아무도 모른다. 정확도와 효과는 다른 문제다.
트럼프 2기 이민 단속의 기술 인프라가 된 팔란티어. 전·현직 직원들이 '파시즘으로의 추락'을 우려하는 지금, AI 감시 기술의 윤리적 경계는 어디인가.
트럼프 행정부와 AI 기업 앤트로픽의 갈등이 새 사이버보안 모델 클로드 미토스를 계기로 해빙 국면에 접어들었다. AI 윤리와 국가안보 사이에서 기업은 어디까지 타협할 수 있는가.
우크라이나 지상 로봇과 드론이 러시아 군사 거점을 공략하고 병사들의 항복을 받아냈다는 주장이 나왔다. 전장의 무인화가 미래 전쟁의 형태를 어떻게 바꾸고 있는지 분석한다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요