AI가 폭격 목표를 고른다면
미 국방부가 생성형 AI를 군사 타격 목표 우선순위 결정에 활용 중이다. ChatGPT·Grok 계열 모델이 전장 의사결정에 개입하는 시대, 그 실체와 위험을 짚는다.
이란의 한 여학교에서 100명 이상의 어린이가 숨졌다. 미사일은 미국에서 발사됐다는 보도가 잇따랐고, 펜타곤은 아직 조사 중이라고만 했다. 그리고 그 조사 결과의 일부로 뉴욕타임스는 "오래된 타겟팅 데이터"가 원인 중 하나였다고 전했다. 그 데이터를 분석하고 목표물 순위를 매기는 데, 생성형 AI가 개입했을 가능성이 제기되고 있다.
챗봇이 폭격 순서를 정한다
MIT 테크놀로지 리뷰가 입수한 국방부 관계자의 증언은 구체적이다. 군은 타격 가능한 목표물 목록을 생성형 AI 시스템에 입력하고, "현재 항공기 위치" 같은 변수를 고려해 어떤 목표를 먼저 공격할지 우선순위를 추천받는다. 인간이 최종 결정을 내리는 구조이지만, AI가 판단의 출발점을 제공하는 셈이다.
이 관계자는 이것이 "작동 방식의 예시"라고 밝혔고, 현재 실제로 이렇게 운용되고 있는지는 확인도 부인도 하지 않았다. 하지만 워싱턴포스트는 이미 Anthropic의 Claude와 군사 AI 시스템 Maven이 이란 작전의 타겟팅 결정에 관여했다고 보도한 바 있다.
Maven은 미 국방부가 2017년부터 구축해온 "빅데이터" 프로젝트다. 컴퓨터 비전 기반의 구형 AI로, 수천 시간의 드론 영상을 분석해 잠재적 목표물을 자동 식별한다. 지도 위에 목표물은 한 색, 아군은 다른 색으로 표시되는 인터페이스로 병사들이 직접 데이터를 검토하는 방식이었다.
생성형 AI는 여기에 새로운 층위를 더한다. ChatGPT, Claude, Grok처럼 대화형으로 작동하는 이 모델들은 방대한 데이터를 빠르게 요약하고 우선순위를 제시할 수 있다. 국방부는 2024년 12월 수백만 명의 군 복무자에게 비기밀 업무용으로 생성형 AI를 개방했고(GenAI.mil), 기밀 환경에서는 Claude, ChatGPT, Grok이 순차적으로 승인을 받았다.
빠르다는 것의 대가
문제는 속도다. 국방부 관계자는 생성형 AI가 타겟팅 프로세스의 속도를 높인다고 했다. 하지만 "인간이 결과를 재검토하는 데 걸리는 시간을 감안하면 얼마나 빨라지는지"를 묻는 질문에는 답하지 않았다.
Maven의 구형 AI는 데이터를 지도 위에 시각화해 병사가 직접 판단하게 만들었다. 반면 생성형 AI의 출력값은 자연어 텍스트다. 읽기는 쉽지만 검증하기는 훨씬 어렵다. AI가 "이 목표물을 먼저 치세요"라고 말할 때, 그 추론 과정을 역추적하는 것은 전문가에게도 쉽지 않다.
더 큰 맥락이 있다. Anthropic은 군이 자사 AI를 어떻게 쓸지에 제한을 두려 했고, 이를 두고 펜타곤과 충돌했다. 국방부는 Anthropic을 "공급망 위험" 업체로 지정했고, 트럼프 대통령은 소셜미디어에서 정부가 Anthropic 제품 사용을 6개월 내 중단하라고 요구했다. Anthropic은 법원에서 이 지정에 맞서고 있다. OpenAI는 2월 28일 군 기밀 환경 사용 계약을 체결했지만 "제한이 있다"고 밝혔고, 그 제한이 실제로 얼마나 효력이 있는지는 불분명하다.
누가, 어떤 시각으로 보는가
군 입장에서 생성형 AI는 정보 과부하 문제를 푸는 도구다. 현대전에서 데이터는 넘쳐나고, 의사결정 속도가 전투의 승패를 가른다. AI가 1차 분류를 해준다면 인간 분석가는 더 중요한 판단에 집중할 수 있다.
AI 기업들의 입장은 분열되어 있다. Anthropic처럼 사용 제한을 요구했다가 계약을 잃은 사례가 생기면서, "윤리적 경계를 지키면 시장에서 밀린다"는 압박이 업계 전반에 퍼질 수 있다. OpenAI와 xAI는 계약을 맺었지만 내부 직원들의 반발도 이어지고 있다.
AI 윤리 연구자들은 근본적인 질문을 던진다. 생성형 AI는 훈련 데이터의 편향을 그대로 반영한다. 특정 지역, 특정 집단에 대한 데이터가 왜곡되어 있다면, AI가 추천하는 "우선순위 목표물"도 왜곡될 수 있다. 그리고 그 오류는 사람이 검토하기 전에 이미 판단의 틀을 짜버린다.
한국의 맥락에서 이 논의는 더 가까운 문제다. 한반도는 여전히 정전 상태이고, 주한미군이 주둔하고 있다. 미군이 한반도 유사시 시나리오에 같은 AI 시스템을 적용한다면, 그 판단의 정확성은 한국인의 생사와 직결된다. 한국 국방부 역시 AI 기반 감시·타겟팅 시스템 도입을 검토 중이며, 미국의 이번 사례는 그 설계 원칙에 대한 선례가 될 것이다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
OpenAI가 영상 생성 AI Sora를 ChatGPT에 통합할 계획이다. 편의성은 높아지지만, 딥페이크 범람이라는 더 큰 문제가 수면 위로 떠오른다.
앤트로픽이 미 국방부의 공급망 위험 지정에 맞서 소송을 제기했다. AI 안전 기준을 고수한 기업이 정부의 보복을 받은 이 사건은, AI 군사화 논쟁의 핵심을 드러낸다.
OpenAI의 국방부 계약에 반발한 로보틱스 팀장 케이틀린 칼리노프스키가 사임했다. 감시와 자율살상무기를 둘러싼 이 논쟁은 AI 기업의 지배구조 문제를 정면으로 건드린다.
Anthropic이 미 국방부의 공급망 위험 지정에 법적 대응을 예고했다. AI 윤리와 국가 안보 사이의 긴장이 한국 AI 산업에 던지는 메시지는?
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요