AI 기업들이 국방부와 '선 긋기'를 시도했지만
OpenAI는 국방부와 계약을 체결했지만, Anthropic은 대량 감시와 자율무기 반대로 공급망 위험 기업으로 지정됐다. AI 윤리와 국가안보 사이의 줄다리기가 시작됐다.
300명의 구글 직원이 서명한 편지의 결말
지난 금요일, OpenAI CEO 샘 알트만이 국방부(트럼프 행정부에서는 '전쟁부')와의 AI 모델 사용 계약 체결을 발표했다. 이는 경쟁사 Anthropic이 "대량 국내 감시와 완전 자율무기"에 대한 선을 그으려다 벌어진 고강도 대립의 결말이다.
사건의 발단은 국방부가 AI 기업들에게 "모든 합법적 목적"을 위한 모델 사용을 허용하라고 압박하면서 시작됐다. Anthropic CEO 다리오 아모데이는 목요일 긴 성명을 통해 "특정 군사작전에 이의를 제기한 적도, 기술 사용을 임의로 제한하려 한 적도 없다"면서도 "좁은 범위의 경우들에서 AI가 민주적 가치를 수호하기보다 훼손할 수 있다"고 주장했다.
60명의 OpenAI 직원과 300명의 구글 직원이 이번 주 공개서한에 서명하며 Anthropic의 입장을 지지했다. 하지만 결과는 정반대였다.
트럼프의 '좌익 광신도들' 발언과 OpenAI의 선택
Anthropic과 국방부의 협상이 결렬되자, 트럼프 대통령은 소셜미디어에 "Anthropic의 좌익 광신도들"이라고 비난하며 연방기관들에게 6개월 단계적 중단 후 해당 기업 제품 사용을 중단하라고 지시했다.
피트 헤그세스 국방장관은 한 발 더 나아가 Anthropic을 공급망 위험 기업으로 지정했다. "미군과 거래하는 어떤 계약업체, 공급업체, 파트너도 Anthropic과 상업적 활동을 할 수 없다"는 강경 조치였다.
반면 OpenAI는 다른 길을 택했다. 알트만은 "우리의 가장 중요한 안전 원칙 두 가지는 국내 대량 감시 금지와 자율무기 시스템을 포함한 무력 사용에 대한 인간의 책임"이라며, 국방부가 이 원칙에 동의했고 계약에 반영했다고 밝혔다.
같은 원칙, 다른 결과의 아이러니
흥미롭게도 알트만이 주장한 OpenAI의 "안전 원칙"은 Anthropic이 고수하려던 것과 본질적으로 동일하다. 차이는 접근 방식에 있었다.
OpenAI는 "정부가 회사로 하여금 거부된 작업을 강제로 수행하게 하지 않을 것"이라는 조건을 확보했다고 전했다. 또한 자체 "안전 스택"을 구축해 오남용을 방지하고, 엔지니어들을 국방부에 파견해 모델의 안전성을 보장하겠다고 했다.
알트만은 "모든 AI 기업에게 동일한 조건을 제공하기를 국방부에 요청했다"며 "법적, 정부 조치에서 벗어나 합리적 합의로 사태가 완화되기를 강력히 희망한다"고 덧붙였다.
Anthropic은 금요일 "전쟁부나 백악관으로부터 협상 상황에 대한 직접적인 연락을 받지 못했다"면서도 "공급망 위험 지정에 대해서는 법정에서 이의를 제기할 것"이라고 맞섰다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
미국 일리노이주에서 AI 챗봇이 살모넬라 집단감염 수사에 투입됐다. 과연 AI는 전염병 추적의 새로운 도구가 될 수 있을까?
베라 루빈 천문대의 자동 경보 시스템이 가동되며 하룻밤에 80만 개의 소행성, 초신성, 블랙홀 정보를 쏟아냈다. 천문학계의 패러다임이 바뀌고 있다.
미국-이스라엘 연합군이 이란을 공습했다. 불과 하루 전까지 '평화가 손에 닿을 듯하다'던 외교관들의 낙관은 어디로 갔을까.
미 국방부가 앤스로픽을 공급망 위험 기업으로 지정하며 군사계약 차단. 실리콘밸리 충격, 한국 AI 정책에도 시사점
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요