2000억원 국방 계약이 깨진 진짜 이유
Anthropic과 미 국방부 계약 파기 이후 재협상 시작. AI 군사 활용의 윤리적 경계선을 둘러싼 실리콘밸리의 갈등을 분석한다.
2000억원. Anthropic이 미 국방부와 체결하려던 계약 규모다. 하지만 지난주 이 거대한 딜이 무산됐다. 이유는 단순했다. 군이 Anthropic의 AI를 '모든 합법적 용도'에 사용하겠다는 조항 때문이었다.
Dario Amodei Anthropic CEO는 이 문구가 국내 대량 감시나 자율 무기 개발에 악용될 수 있다며 거부했다. 국방부는 즉시 OpenAI로 발길을 돌렸다. 게임 오버인 줄 알았다.
다시 시작된 협상 테이블
그런데 반전이 일어났다. 파이낸셜타임스와 블룸버그 보도에 따르면, Amodei가 국방부 관리 Emil Michael과 재협상에 나섰다. 양측이 타협점을 찾기 위해서다.
이상한 일이다. 그동안 양측은 공개적으로 날선 공격을 주고받았다. Michael은 Amodei를 '거짓말쟁이'이자 '신 콤플렉스'를 가진 인물이라고 비난했다. Amodei도 가만있지 않았다. 이번 주 직원들에게 보낸 메모에서 OpenAI 계약을 '안전 연극'이라고 깎아내렸다.
"OpenAI가 (국방부 계약을) 받아들인 주된 이유는 직원들을 달래려 했기 때문이고, 우리는 실제로 남용을 방지하려 했다"고 Amodei는 썼다.
국방장관의 '공급망 위험' 카드
상황은 더 복잡해졌다. Pete Hegseth 국방장관은 Anthropic을 '공급망 위험' 업체로 지정하겠다고 선언했다. 이는 사실상 미군과 거래하는 모든 기업이 Anthropic과 손을 끊어야 한다는 뜻이다.
이런 지정은 보통 중국이나 러시아 같은 적대국 기업에 내리는 조치다. 미국 기업에 적용하는 건 이례적이다. 법정 다툼도 예상된다.
왜 다시 협상 테이블에 앉았을까
그럼에도 양측이 재협상에 나선 이유는 명확하다. 국방부는 이미 Anthropic 기술에 의존하고 있다. 갑자기 OpenAI 시스템으로 바꾸는 건 혼란스럽다. Anthropic 입장에서도 2000억원 계약을 포기하기엔 아깝다.
하지만 더 큰 그림이 있다. 이 갈등은 AI 시대의 근본적 질문을 드러낸다. 기술 기업은 자사 AI가 어떻게 사용되는지 통제할 권리가 있을까? 아니면 고객이 합법적 범위 내에서 자유롭게 써야 할까?
실리콘밸리의 새로운 딜레마
흥미로운 건 업계 반응의 차이다. OpenAI는 군사 계약을 받아들였지만, Google은 2018년 Project Maven 논란 이후 군사 AI 개발을 중단했다. Microsoft는 중간 지점에서 선택적으로 협력하고 있다.
각 기업이 그리는 윤리적 경계선이 다르다. 그리고 이 경계선이 비즈니스 전략과 얼마나 연결되어 있는지도 의문이다. Anthropic의 원칙적 거부가 진짜 신념인지, 아니면 브랜드 차별화 전략인지 구분하기 어렵다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
루마 AI가 텍스트부터 영상까지 통합 창작하는 AI 에이전트를 출시. 기존 200만원 광고가 2만원에 40시간 만에 완성되는 시대가 온다.
중동 분쟁에서 드러난 AI 무기의 현실. 클로드 AI가 타겟 선정하고, 드론이 자율 공격하는 시대. 하지만 정확도는 90%, 규제는 전무한 상황.
오픈소스 기여를 거절당한 AI 에이전트가 개발자를 비방하는 블로그 포스트로 보복. AI 괴롭힘의 새로운 시대가 시작되고 있다.
ETH 취리히 연구진이 개발한 AI 시스템이 익명 온라인 계정의 실제 신원을 추적할 수 있다는 연구 결과를 발표. 온라인 프라이버시의 미래는?
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요