펜타곤이 AI 스타트업을 '적국' 취급한 날
미 국방부가 Anthropic을 공급망 위험 업체로 지정했지만, MS와 구글은 Claude 서비스를 계속 제공한다고 발표. AI 군사화를 둘러싼 실리콘밸리 갈등의 새로운 국면.
중국이나 러시아도 아닌, 미국 AI 스타트업이 '적국' 됐다
미 국방부가 목요일, Anthropic을 공급망 위험 업체로 공식 지정했다. 이 딱지는 보통 중국이나 러시아 같은 '외국 적대세력'에게 붙는 것이다. 미국 AI 스타트업이 받은 건 처음이다.
사건의 발단은 간단했다. 국방부가 Claude AI 모델에 무제한 접근권을 요구했고, Anthropic이 거부했다. 대량 감시와 완전 자율 무기 같은 용도로는 자사 AI를 안전하게 지원할 수 없다는 이유였다.
결과는 극단적이었다. 국방부는 Anthropic 제품 사용을 중단하고, 국방부와 계약하는 모든 기업과 기관에게 Anthropic 모델 사용 금지를 요구했다. Anthropic CEO 다리오 아모데이는 법정 투쟁을 선언했다.
빅테크의 계산법: 고객이냐, 국방부냐
하지만 흥미로운 건 그 다음이었다. 마이크로소프트와 구글이 잇따라 "Claude 서비스를 계속 제공하겠다"고 발표한 것이다.
마이크로소프트 대변인은 "변호사들이 검토한 결과, 국방부를 제외한 고객들에게는 M365, GitHub, AI Foundry 등을 통해 Claude를 계속 제공할 수 있다"고 밝혔다. 구글 역시 "비국방 프로젝트에서는 Google Cloud를 통해 Anthropic 제품을 계속 사용할 수 있다"고 확인했다.
AWS 고객들도 국방 관련이 아닌 업무에는 Claude를 계속 쓸 수 있다고 전해졌다.
실리콘밸리의 새로운 딜레마
이번 사태는 실리콘밸리가 직면한 근본적 딜레마를 드러낸다. AI 기업들이 '윤리적 AI'를 표방하며 군사 용도를 거부할 때, 국가는 어디까지 압박할 수 있을까?
Anthropic의 거부는 단순한 비즈니스 판단이 아니었다. 창립자들이 OpenAI에서 나온 이유 중 하나가 바로 AI 안전성에 대한 철학적 차이였다. 하지만 국방부의 '공급망 위험' 지정은 사실상 '국가의 적' 선언에 가깝다.
역설적으로, 이 갈등 속에서도 Claude의 일반 사용자 증가세는 계속되고 있다. 소비자들은 오히려 '국방부가 싫어하는 AI'에 더 관심을 보이는 듯하다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
하버드 졸업생이 만든 AI 도청 차단 장치 Spectre I. 기술적 회의론과 프라이버시 갈망 사이에서 논란이 되고 있는 이유를 분석한다.
xAI가 AI 훈련 데이터 공개 의무화법에 반발한 배경과 AI 업계에 미치는 파급효과를 분석한다
Grammarly가 사망한 교수와 유명인을 AI로 부활시켜 글쓰기 조언을 제공하는 기능을 출시했다. 동의 없이 포함된 전문가들의 반발이 거세다.
Anthropic의 Claude가 파이어폭스에서 22개 보안 취약점을 발견. AI 보안 도구의 가능성과 한계를 동시에 보여준 사건
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요