AI가 폭격 순서를 정한다면
미 국방부가 생성형 AI를 군사 표적 우선순위 결정에 활용하는 방안을 공개했다. ChatGPT와 Grok이 전장의 의사결정에 개입하는 미래, 무엇이 달라지고 무엇이 위험한가.
누군가 죽어야 할 때, 그 순서를 AI가 정한다면.
이것이 현재 미 국방부가 검토 중인 시나리오다. 단순한 연구 가설이 아니다. 국방부 관리가 직접 공개한 내용이다.
무슨 일이 일어나고 있나
미 국방부 관리는 최근 생성형 AI 시스템을 군사 표적 우선순위 결정에 활용하는 구체적인 방식을 공개했다. 시나리오는 이렇다. 먼저 가능한 표적 목록을 기밀 환경용으로 구축된 생성형 AI 시스템에 입력한다. 그러면 AI가 정보를 분석하고 어떤 표적을 먼저 타격할지 우선순위를 제시한다. 최종 판단은 인간이 내린다—적어도 공식적으로는.
더 구체적인 이름도 나왔다. OpenAI의 ChatGPT와 xAI의 Grok이 이런 고위험 군사 결정의 중심에 놓일 수 있다는 것이다.
같은 날 또 다른 파장도 일었다. 펜타곤의 CTO는 Anthropic의 Claude가 국방 공급망을 "오염시킬" 것이라고 주장했다. 이유는 모델에 내장된 "정책적 편향" 때문이라고 했다. Anthropic 입장에서는 당혹스러운 상황이다. OpenAI가 국방부와 협력 범위를 넓히는 동안, Anthropic은 안전성 원칙을 이유로 사실상 배제되는 모양새다.
여기까지 오게 된 맥락
미군이 AI를 전장에 도입하려는 시도는 어제오늘 일이 아니다. DARPA는 수십 년간 자율 시스템 연구를 이어왔고, 드론 기술은 이미 전쟁의 문법을 바꿨다. 우크라이나-러시아 전쟁은 이 흐름을 가속했다. 우크라이나는 현재 자국의 실전 전장 데이터를 동맹국에 제공해 드론과 무인기 AI 훈련에 활용하도록 하고 있다. 라트비아의 스타트업 Global Wolf Motors가 만든 군용 스쿠터가 개전 몇 주 만에 최전선에 투입된 것처럼, 민간 기술이 군사 목적으로 전환되는 속도는 전례 없이 빨라졌다.
생성형 AI의 등장은 이 흐름에 새로운 차원을 더했다. 이제 문제는 '자율 무기를 쓸 것인가'가 아니라 '인간이 AI의 판단을 얼마나 믿을 것인가'로 바뀌었다.
왜 지금 이 뉴스가 중요한가
타이밍이 의미심장하다. OpenAI는 최근 군사·정보기관과의 협력을 금지하던 사용 정책을 조용히 완화했다. 동시에 Sam Altman CEO는 투자자 행사에서 "지능은 전기나 수도처럼 유틸리티가 될 것"이라며 미터제 판매 모델을 제시했다. AI를 인프라로 보는 시각이 군사 영역으로 확장되는 것은 논리적 귀결처럼 보인다—그러나 전기와 폭격 결정은 같은 선상에 놓일 수 없다.
한국에도 무관한 이야기가 아니다. 한국군은 이미 AI 기반 감시·정찰 시스템 도입을 추진 중이며, LIG넥스원, 한화시스템 등 방산 기업들은 AI 무기체계 개발에 속도를 내고 있다. 글로벌 표준이 미국 주도로 형성될 경우, 한국 방산업계의 기술 선택과 윤리 기준도 그 흐름을 따를 가능성이 높다.
엇갈리는 시각들
국방부 입장에서 이 접근법의 논리는 명확하다. 전장에서 수백 개의 표적 정보를 인간이 실시간으로 처리하는 것은 물리적으로 불가능하다. AI가 분석을 보조하면 오히려 인간의 판단 부담을 줄이고 오류를 줄일 수 있다는 것이다. '인간이 최종 결정한다'는 원칙을 유지하는 한, 도구의 활용은 정당하다는 논리다.
AI 윤리 연구자들의 시각은 다르다. '인간이 최종 결정'이라는 원칙이 실제로 얼마나 의미 있는지 묻는다. AI가 우선순위를 제시하면 인간은 그 판단을 뒤집기 어렵다. 심리학에서 말하는 '자동화 편향(automation bias)'—기계의 판단을 과신하는 경향—이 작동하기 때문이다. 결국 '인간의 최종 결정'은 AI 추천에 도장을 찍는 절차로 전락할 수 있다.
AI 기업들 사이에서도 균열이 보인다. OpenAI와 xAI는 군사 협력을 사업 기회로 보는 쪽으로 기울었다. Anthropic은 안전성 원칙을 고수하다 오히려 '공급망 오염원'으로 낙인찍혔다. 이 구도는 AI 업계 전체에 질문을 던진다. 안전 원칙을 지키는 기업이 시장에서 배제된다면, 업계의 자정 능력은 어디서 나오는가.
국제법 전문가들은 또 다른 층위의 문제를 지적한다. 국제인도법은 민간인과 전투원을 구별하고, 공격의 비례성을 판단하도록 요구한다. AI가 이 판단을 내렸을 때 민간인 피해가 발생하면, 책임은 누구에게 있는가. 알고리즘? 개발사? 지휘관?
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
앤트로픽의 클로드 AI가 미군 작전에 활용된다는 사실이 드러났다. 팔란티어와의 파트너십, 마드로 체포 작전, 이란 전쟁까지—AI 윤리의 경계는 어디인가?
미 국방부가 생성형 AI를 군사 타격 목표 우선순위 결정에 활용 중이다. ChatGPT·Grok 계열 모델이 전장 의사결정에 개입하는 시대, 그 실체와 위험을 짚는다.
OpenAI가 영상 생성 AI Sora를 ChatGPT에 통합할 계획이다. 편의성은 높아지지만, 딥페이크 범람이라는 더 큰 문제가 수면 위로 떠오른다.
OpenAI의 국방부 계약에 반발한 로보틱스 팀장 케이틀린 칼리노프스키가 사임했다. 감시와 자율살상무기를 둘러싼 이 논쟁은 AI 기업의 지배구조 문제를 정면으로 건드린다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요