AI 기업들이 국방부와 '선 긋기'를 시도했지만
OpenAI는 국방부와 계약을 체결했지만, Anthropic은 대량 감시와 자율무기 반대로 공급망 위험 기업으로 지정됐다. AI 윤리와 국가안보 사이의 줄다리기가 시작됐다.
300명의 구글 직원이 서명한 편지의 결말
지난 금요일, OpenAI CEO 샘 알트만이 국방부(트럼프 행정부에서는 '전쟁부')와의 AI 모델 사용 계약 체결을 발표했다. 이는 경쟁사 Anthropic이 "대량 국내 감시와 완전 자율무기"에 대한 선을 그으려다 벌어진 고강도 대립의 결말이다.
사건의 발단은 국방부가 AI 기업들에게 "모든 합법적 목적"을 위한 모델 사용을 허용하라고 압박하면서 시작됐다. Anthropic CEO 다리오 아모데이는 목요일 긴 성명을 통해 "특정 군사작전에 이의를 제기한 적도, 기술 사용을 임의로 제한하려 한 적도 없다"면서도 "좁은 범위의 경우들에서 AI가 민주적 가치를 수호하기보다 훼손할 수 있다"고 주장했다.
60명의 OpenAI 직원과 300명의 구글 직원이 이번 주 공개서한에 서명하며 Anthropic의 입장을 지지했다. 하지만 결과는 정반대였다.
트럼프의 '좌익 광신도들' 발언과 OpenAI의 선택
Anthropic과 국방부의 협상이 결렬되자, 트럼프 대통령은 소셜미디어에 "Anthropic의 좌익 광신도들"이라고 비난하며 연방기관들에게 6개월 단계적 중단 후 해당 기업 제품 사용을 중단하라고 지시했다.
피트 헤그세스 국방장관은 한 발 더 나아가 Anthropic을 공급망 위험 기업으로 지정했다. "미군과 거래하는 어떤 계약업체, 공급업체, 파트너도 Anthropic과 상업적 활동을 할 수 없다"는 강경 조치였다.
반면 OpenAI는 다른 길을 택했다. 알트만은 "우리의 가장 중요한 안전 원칙 두 가지는 국내 대량 감시 금지와 자율무기 시스템을 포함한 무력 사용에 대한 인간의 책임"이라며, 국방부가 이 원칙에 동의했고 계약에 반영했다고 밝혔다.
같은 원칙, 다른 결과의 아이러니
흥미롭게도 알트만이 주장한 OpenAI의 "안전 원칙"은 Anthropic이 고수하려던 것과 본질적으로 동일하다. 차이는 접근 방식에 있었다.
OpenAI는 "정부가 회사로 하여금 거부된 작업을 강제로 수행하게 하지 않을 것"이라는 조건을 확보했다고 전했다. 또한 자체 "안전 스택"을 구축해 오남용을 방지하고, 엔지니어들을 국방부에 파견해 모델의 안전성을 보장하겠다고 했다.
알트만은 "모든 AI 기업에게 동일한 조건을 제공하기를 국방부에 요청했다"며 "법적, 정부 조치에서 벗어나 합리적 합의로 사태가 완화되기를 강력히 희망한다"고 덧붙였다.
Anthropic은 금요일 "전쟁부나 백악관으로부터 협상 상황에 대한 직접적인 연락을 받지 못했다"면서도 "공급망 위험 지정에 대해서는 법정에서 이의를 제기할 것"이라고 맞섰다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
아마존이 앤트로픽에 추가 5조 원을 투자하며 총 투자액 13조 원을 기록했다. 하지만 이 딜의 핵심은 돈이 아니라 100조 원 규모의 클라우드 지출 약속과 자체 AI 칩 생태계다.
트럼프 행정부가 2004년부터 유지된 미국 방송 독과점 규제를 해제하려 한다. 한 회사가 전국 TV 시청 가구의 39%를 초과해 장악하지 못하도록 막아온 이 규칙이 사라지면 미디어 권력 지형은 어떻게 바뀔까?
2027년까지 DRAM 공급은 수요의 60%에 불과할 전망. 삼성, SK하이닉스, 마이크론이 생산 확대에 나섰지만 신규 팹 가동은 빨라야 2027년. AI 반도체 수요 폭증이 만든 구조적 공급 위기를 분석한다.
OpenAI의 소라 개발자 빌 피블스와 과학 연구 이니셔티브를 이끈 케빈 웨일이 동시에 퇴사했다. 단순한 인재 유출이 아니다. 이 회사가 무엇을 포기했는지에 대한 이야기다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요