Liabooks Home|PRISM News
AI 기업들이 국방부와 '선 긋기'를 시도했지만
테크AI 분석

AI 기업들이 국방부와 '선 긋기'를 시도했지만

4분 읽기Source

OpenAI는 국방부와 계약을 체결했지만, Anthropic은 대량 감시와 자율무기 반대로 공급망 위험 기업으로 지정됐다. AI 윤리와 국가안보 사이의 줄다리기가 시작됐다.

300명의 구글 직원이 서명한 편지의 결말

지난 금요일, OpenAI CEO 샘 알트만이 국방부(트럼프 행정부에서는 '전쟁부')와의 AI 모델 사용 계약 체결을 발표했다. 이는 경쟁사 Anthropic이 "대량 국내 감시와 완전 자율무기"에 대한 선을 그으려다 벌어진 고강도 대립의 결말이다.

사건의 발단은 국방부가 AI 기업들에게 "모든 합법적 목적"을 위한 모델 사용을 허용하라고 압박하면서 시작됐다. Anthropic CEO 다리오 아모데이는 목요일 긴 성명을 통해 "특정 군사작전에 이의를 제기한 적도, 기술 사용을 임의로 제한하려 한 적도 없다"면서도 "좁은 범위의 경우들에서 AI가 민주적 가치를 수호하기보다 훼손할 수 있다"고 주장했다.

60명의 OpenAI 직원과 300명의 구글 직원이 이번 주 공개서한에 서명하며 Anthropic의 입장을 지지했다. 하지만 결과는 정반대였다.

트럼프의 '좌익 광신도들' 발언과 OpenAI의 선택

Anthropic과 국방부의 협상이 결렬되자, 트럼프 대통령은 소셜미디어에 "Anthropic의 좌익 광신도들"이라고 비난하며 연방기관들에게 6개월 단계적 중단 후 해당 기업 제품 사용을 중단하라고 지시했다.

피트 헤그세스 국방장관은 한 발 더 나아가 Anthropic을 공급망 위험 기업으로 지정했다. "미군과 거래하는 어떤 계약업체, 공급업체, 파트너도 Anthropic과 상업적 활동을 할 수 없다"는 강경 조치였다.

반면 OpenAI는 다른 길을 택했다. 알트만은 "우리의 가장 중요한 안전 원칙 두 가지는 국내 대량 감시 금지와 자율무기 시스템을 포함한 무력 사용에 대한 인간의 책임"이라며, 국방부가 이 원칙에 동의했고 계약에 반영했다고 밝혔다.

같은 원칙, 다른 결과의 아이러니

흥미롭게도 알트만이 주장한 OpenAI의 "안전 원칙"은 Anthropic이 고수하려던 것과 본질적으로 동일하다. 차이는 접근 방식에 있었다.

OpenAI는 "정부가 회사로 하여금 거부된 작업을 강제로 수행하게 하지 않을 것"이라는 조건을 확보했다고 전했다. 또한 자체 "안전 스택"을 구축해 오남용을 방지하고, 엔지니어들을 국방부에 파견해 모델의 안전성을 보장하겠다고 했다.

알트만은 "모든 AI 기업에게 동일한 조건을 제공하기를 국방부에 요청했다"며 "법적, 정부 조치에서 벗어나 합리적 합의로 사태가 완화되기를 강력히 희망한다"고 덧붙였다.

Anthropic은 금요일 "전쟁부나 백악관으로부터 협상 상황에 대한 직접적인 연락을 받지 못했다"면서도 "공급망 위험 지정에 대해서는 법정에서 이의를 제기할 것"이라고 맞섰다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사