펜타곤 vs 앤트로픽, AI 무기화 놓고 2000억원 줄다리기
미 국방부가 AI 기업들에게 '모든 합법적 목적' 사용 허용을 요구하며 앤트로픽과 갈등. 자율무기 개발의 윤리적 경계는 어디까지?
2000억원 계약이 걸린 AI 윤리 전쟁
미 국방부와 AI 기업 앤트로픽이 2억 달러(약 2000억원) 규모의 계약을 놓고 정면충돌하고 있다. 쟁점은 하나다. AI를 '모든 합법적 목적'에 사용할 수 있느냐는 것.
트럼프 행정부는 OpenAI, 구글, xAI, 앤트로픽 등 주요 AI 기업들에게 동일한 요구를 했다. 군사 목적 사용에 제한을 두지 말라는 것이다. 하지만 앤트로픽만큼은 고개를 젓고 있다.
앤트로픽의 '선 긋기'
앤트로픽은 자사의 Claude 모델이 "완전 자율무기"와 "대규모 국내 감시"에는 사용될 수 없다는 입장을 고수하고 있다. 회사 대변인은 "특정 작전에 대해서는 국방부와 논의하지 않았다"며 "사용 정책의 핵심 한계선에 집중하고 있다"고 밝혔다.
반면 익명의 행정부 관계자에 따르면, 4개 기업 중 1곳은 이미 동의했고, 2곳은 '어느 정도 유연성'을 보였다고 한다. 앤트로픽만이 가장 강하게 저항하고 있다는 것이다.
이미 벌어진 일들
흥미롭게도 Claude는 이미 군사 작전에 사용된 바 있다. 월스트리트저널에 따르면, 미군이 베네수엘라 전 대통령 니콜라스 마두로 체포 작전에서 Claude를 활용했다고 한다. 1월에는 앤트로픽과 국방부 간 Claude 사용 범위를 놓고 "상당한 이견"이 있었다는 보도도 나왔다.
펜타곤은 압박 수위를 높이고 있다. 앤트로픽이 계속 거부하면 2억 달러 계약을 취소하겠다고 위협하고 있는 상황이다.
한국에서 벌어진다면?
이 갈등은 한국에도 시사하는 바가 크다. 네이버의 HyperCLOVA X나 LG AI연구원의 기술이 국방 목적으로 요구받는다면? 국내 AI 기업들도 언젠가 비슷한 딜레마에 직면할 수 있다.
특히 한국은 분단 상황이라는 특수성이 있다. AI 기술의 군사적 활용이 더욱 민감한 사안이 될 수밖에 없다. 동시에 중국의 AI 굴기와 미국의 기술 패권 경쟁 사이에서 균형점을 찾아야 하는 과제도 있다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
구글이 오프라인에서도 작동하는 AI 받아쓰기 앱 'Google AI Edge Eloquent'를 조용히 출시했다. Gemma 기반 온디바이스 AI가 음성을 깔끔한 텍스트로 바꿔주는 이 앱이 국내 음성인식 시장에 던지는 질문을 짚어본다.
OpenAI CEO 샘 올트먼은 AI가 순수한 이익만 가져온다고 말한다. 그의 블로그 포스트 '부드러운 특이점'이 60만 명에게 읽혔다. 하지만 낙관론에는 항상 가려진 것이 있다.
그래머리가 'Superhuman'으로 리브랜딩하며 AI 생산성 플랫폼으로 전환을 선언했다. 단순 맞춤법 교정 도구에서 업무 전반을 다루는 AI 에이전트로의 도약—이 전략이 성공할 수 있을까?
Anthropic이 Claude Code의 서드파티 도구 연동을 유료화했다. OpenClaw 창업자는 "오픈소스 고사 작전"이라 비판하고, Anthropic은 "지속 가능한 성장을 위한 불가피한 선택"이라 반박한다. 누구 말이 맞을까?
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요