Liabooks Home|PRISM News
AI 기업이 군대에 "이건 안 됩니다"라고 했을 때
테크AI 분석

AI 기업이 군대에 "이건 안 됩니다"라고 했을 때

6분 읽기Source

앤트로픽이 자사 AI의 군사적 활용에 제동을 걸자 미 국방부가 공급망 위협 기업으로 지정했다. 기업의 윤리적 판단과 국가 안보 사이, 누가 선을 그을 수 있는가?

AI 기업이 자기 제품에 "이건 안 됩니다"라고 선을 그었다. 그러자 국방부가 그 기업을 공급망 위협으로 지정했다. 이게 제재인가, 아니면 당연한 보안 조치인가.

무슨 일이 있었나

앤트로픽은 자사의 AI 모델 클로드(Claude)가 군에서 활용될 때 두 가지 조건을 내걸었다. 첫째, 미국 시민에 대한 광범위한 감시에 사용되어서는 안 된다. 둘째, 현재 기술 수준에서는 완전 자율 무기 시스템을 구동하기에 충분히 신뢰할 수 없다. 기업 입장에서는 자사 기술의 한계와 윤리적 경계를 솔직하게 밝힌 것이다.

미 국방부는 이 입장을 다르게 읽었다. 국방장관 피트 헤그세스앤트로픽이 "기업의 자체 판단으로 레드라인을 설정하고, 전시 작전 중에 기술을 비활성화하거나 모델 동작을 사전에 변경할 수 있다"는 우려를 공식화했다. 결국 국방부는 앤트로픽에 공급망 위험 기업 딱지를 붙였다. 이 지정이 유지되면 앤트로픽은 올해 기대했던 수십억 달러 규모의 국방 계약을 잃을 수 있다.

앤트로픽은 두 개의 연방법원에서 이 결정에 맞서고 있다. 샌프란시스코 법원에서는 오는 화요일, 소송이 해결될 때까지 기업 활동을 정상적으로 유지할 수 있도록 하는 임시 조치 청문회가 예정되어 있다.

법정에서 맞붙은 두 논리

앤트로픽 측은 헌법 수정 제1조, 즉 표현의 자유를 근거로 든다. 기업이 자사 기술의 사용 조건에 대해 의견을 표명할 권리가 있으며, 그 의견을 표명했다는 이유로 정부가 불이익을 주는 것은 위헌적 보복이라는 주장이다. 다수의 법률 전문가들도 이 논리가 상당히 타당하다고 평가한다.

미 법무부는 화요일 제출한 법원 서류에서 이를 정면으로 반박했다. "수정 제1조는 정부에 일방적으로 계약 조건을 강요할 수 있는 면허가 아니다." 정부는 또한 앤트로픽이 입을 수 있는 사업적 손실은 "법적으로 회복 불가능한 손해로 보기 어렵다"고 주장하며 임시 구제 조치를 거부해달라고 요청했다.

정부의 핵심 우려는 이렇다. 앤트로픽이 국방부의 기밀 시스템과 고강도 전투 작전에 현재 유일하게 승인된 AI 모델 공급자인 상황에서, 기업이 스스로 정한 윤리적 판단에 따라 언제든 시스템을 끄거나 변경할 수 있다면 이는 군사 작전의 안정성을 근본적으로 위협한다는 것이다.

누가 이 싸움을 주목하는가

법원에 제출된 지지 서한의 분포가 흥미롭다. 마이크로소프트, AI 연구자 단체, 연방 공무원 노조, 전직 군 고위 인사들이 앤트로픽 편에 섰다. 정부를 지지하는 서한은 단 한 건도 없다.

PRISM

광고주 모집

[email protected]

마이크로소프트의 참여는 단순한 업계 연대 이상의 의미를 갖는다. 자신들도 유사한 상황에 놓일 수 있다는 현실적 계산이 깔려 있다. 전직 군 지휘관들이 앤트로픽 편에 선 것도 눈길을 끈다. 자율 무기의 위험성에 대한 우려는 AI 업계가 아닌 군 내부에서도 오래전부터 제기되어 왔기 때문이다.

한편 국방부는 구글, 오픈AI, xAI 등 대안 공급자로의 전환을 이미 준비 중이다. 군의 주요 클로드 활용 경로 중 하나는 팔란티어(Palantir) 데이터 분석 소프트웨어를 통해서였다. 국방부가 특정 기업에 의존하지 않는 다층적 AI 공급 구조를 원한다는 점은 이번 사태와 무관하게 이미 진행 중인 방향이었다.

이 싸움이 한국에도 남 얘기가 아닌 이유

한국은 세계에서 가장 빠르게 AI를 군사 분야에 도입하고 있는 나라 중 하나다. 한화, LIG넥스원 등 방산 기업들이 AI 기반 무기 체계 개발에 적극 나서고 있고, 국방부도 AI 기반 전장 관리 시스템 도입을 추진 중이다. 이 과정에서 네이버, 카카오, 삼성 같은 국내 AI 기업들이 국방 조달에 참여할 가능성이 높다.

그렇다면 한국 AI 기업들도 언젠가 같은 질문에 답해야 할 순간이 온다. "우리 기술이 이런 방식으로 쓰이는 것을 허용할 것인가?" 그 답이 정부의 기대와 다를 때, 기업은 어떤 선택지를 갖는가.


구분앤트로픽 주장미 국방부 주장
사안의 본질표현의 자유 침해, 위헌적 보복정당한 보안 우려에 따른 공급망 관리
AI 사용 제한의 성격기업의 윤리적 책임 이행군사 작전 안정성에 대한 위협
법적 근거수정 제1조 (표현의 자유)국가 안보 및 계약 관리 권한
사업 손실회복 불가능한 피해법적으로 불충분한 손해 주장
지지 세력MS, AI 연구자, 전직 군 지휘관, 노조없음 (공개 지지 서한 기준)

기술 기업의 윤리 선언은 어디까지 유효한가

앤트로픽의 창업 철학은 "안전한 AI"다. 회사를 공동 창업한 다리오 아모데이다니엘라 아모데이오픈AI에서 나온 이유가 바로 AI 안전에 대한 입장 차이였다. 기업의 정체성 자체가 "우리는 위험하다고 판단한 사용에는 기술을 제공하지 않겠다"는 선언 위에 세워져 있다.

문제는 그 판단의 주체가 누구냐는 것이다. 국방부의 논리는 단순하다. 전시 상황에서 민간 기업이 자체 윤리 기준에 따라 군사 시스템을 멈출 수 있다면, 그것 자체가 안보 위협이라는 것이다. 이 논리를 완전히 틀렸다고 하기도 어렵다.

반대로 앤트로픽의 논리도 무시하기 어렵다. AI 기업이 자사 기술의 한계와 위험을 솔직하게 밝히고 사용 조건을 제시하는 것이 왜 문제가 되는가. 오히려 그런 투명성이 없는 AI 공급자가 군사 시스템에 더 깊숙이 들어가는 것이 더 위험하지 않은가.

법원은 결국 이 두 논리 중 하나의 손을 들어줘야 한다. 그리고 그 판결은 전 세계 AI 기업과 정부의 관계를 재정의하는 선례가 될 것이다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사

PRISM

광고주 모집

[email protected]
PRISM

광고주 모집

[email protected]
AI 기업이 군대에 "이건 안 됩니다"라고 했을 때 | 테크 | PRISM by Liabooks