AI 윤리 vs 국가 안보, 펜타곤이 Anthropic에 최후통첩
미 국방부가 AI 기업 Anthropic에 군사용 AI 무제한 사용권을 요구하며 금요일까지 답변을 요구. AI 윤리와 국가 안보 사이의 충돌이 본격화되고 있다.
금요일 오후 5시 1분. 이 시간이 AI 업계 역사상 가장 중요한 분수령이 될지도 모른다.
미국 국방부 장관 피트 헤그세스가 AI 기업 Anthropic에 던진 최후통첩의 마감시한이다. "우리 군대가 당신들의 AI를 어떤 용도로든 쓸 수 있게 하라. 아니면 결과를 감수하라."
펜타곤의 요구: "모든 합법적 목적"이라는 함정
Anthropic은 이미 2억 달러 규모의 계약으로 미군에 AI를 공급하고 있다. 그들의 챗봇 Claude는 정부 기밀 네트워크에 배치된 첫 번째 AI 모델이기도 하다.
하지만 펜타곤은 여기서 만족하지 않는다. "모든 합법적 목적"을 위한 무제한 사용권을 요구하고 있다. 겉보기엔 합리적이다. '합법적'이라는 단어가 들어있으니까. 하지만 실제로는 Anthropic이 개별 사용 사례를 검토할 권리도, 특정 용도를 제한할 권리도 모두 포기하라는 뜻이다.
헤그세스는 화요일 긴장감 넘치는 회의에서 Anthropic CEO 다리오 아모데이에게 이렇게 말했다고 전해진다. "보잉이 전투기를 만들어 주면, 우리가 그걸 어떻게 쓸지 보잉에 허락받지 않는다."
Anthropic의 '레드라인': 어디까지가 선인가
Anthropic이 완전히 비협조적인 건 아니다. 이들은 미국이 중국과 AI 패권 경쟁을 벌이고 있다고 가장 적극적으로 주장해온 기업 중 하나다. 미사일 방어 같은 직접적인 군사 용도에도 참여해왔다.
Anthropic의 정책은 인간이 최종 결정을 내리는 조건 하에 표적 군사 공격, 해외 감시, 심지어 드론 공격에도 자사 모델 사용을 허용한다. 하지만 두 가지만큼은 절대 넘을 수 없는 선이라고 못을 박았다.
첫째, 완전 자율 무기. 인간의 개입 없이 AI가 표적을 선택하고 공격하는 시스템. 둘째, 미국 시민에 대한 대규모 국내 감시.
아모데이는 목요일 성명에서 "AI 기반 대규모 감시는 우리의 기본적 자유에 심각하고 새로운 위험을 제기한다"며 "최첨단 AI 시스템은 완전 자율 무기를 구동하기엔 아직 충분히 신뢰할 수 없다"고 밝혔다.
베네수엘라 작전이 촉발한 갈등
이 모든 일의 시작은 지난 1월 초 베네수엘라 대통령 니콜라스 마두로 체포 작전이었다. Axios 보도에 따르면, Claude가 군사 친화적 AI 기업 팰런티어의 플랫폼을 통해 이 작전에 투입됐다.
작전 후 Anthropic 직원이 팰런티어 측에 Claude가 어떻게 사용됐는지 문의했고, 이것이 문제 제기로 받아들여졌다. 팰런티어는 즉시 이 대화를 펜타곤에 보고했다.
헤그세스는 이미 1월 연설에서 "전쟁을 수행할 수 없게 하는 AI 모델은 사용하지 않을 것"이라고 못박은 바 있다.
펜타곤의 무기: 국방생산법부터 공급망 위험까지
Anthropic이 끝까지 버틴다면 펜타곤은 어떤 카드를 꺼낼 수 있을까?
가장 온건한 방법은 2억 달러 계약 취소다. 하지만 시가총액 3,800억 달러인 Anthropic에게는 큰 타격이 아니다. xAI 같은 다른 AI 기업들이 기꺼이 그 자리를 차지할 것이다.
하지만 헤그세스는 더 강력한 수단을 암시하고 있다. 국방생산법 발동이다. 냉전 시대 만들어진 이 법은 대통령이 기업에 국방 계약 수락을 강제할 수 있게 한다. 코로나19 때 트럼프가 인공호흡기 생산을 늘리기 위해 사용한 바로 그 법이다.
하지만 AI 안전 정책 분쟁 때문에 국내 기업을 표적 삼아 이 법을 사용하는 것은 전례 없는 일이다. 일부에서는 이를 "전쟁용 클로드" 개발 강요라고 부르고 있다.
가장 극단적인 수단은 Anthropic을 "공급망 위험" 기업으로 지정하는 것이다. 보통 중국의 화웨이 같은 적대국 기업에 붙이는 딱지인데, 이렇게 되면 모든 국방 계약업체가 Anthropic 제품 사용을 금지당한다. 미국 대기업 상당수가 군사 계약을 보유하고 있어, 사실상 Anthropic의 기업용 사업을 전면 차단하는 효과를 낸다.
Axios는 펜타곤이 이미 보잉과 록히드 마틴에 Claude 의존도 평가를 요청했다고 보도했다.
모순된 논리의 함정
여기서 아이러니가 드러난다. 펜타곤은 Anthropic이 국가 안보 위험이라고 주장하면서, 동시에 전시 생산에 필수적이라며 회사를 국유화하겠다고 위협하고 있다.
Vox의 기고 편집자 켈시 파이퍼는 이를 두고 "Claude가 국가 안보 위협이라고 주장하면서 동시에 전시 생산에 너무 필요해서 회사를 국유화해야 한다고 말하는 것은 명백히 터무니없다"고 지적했다.
업계의 반발과 미래에 대한 우려
아모데이는 물러서지 않겠다고 선언했고, AI 업계 상당수가 그의 편에 서고 있다. 구글의 제프 딘, 전 트럼프 AI 고문 딘 볼까지 나서서 펜타곤의 행동을 비판하고 있다.
볼은 X에서 "이것은 지구상 어떤 정부도 고려하지 않은 가장 엄격한 AI 규제가 될 것"이라며 "AI 규제 반대를 표방해온 행정부에서 나오는 조치라는 점에서 더욱 아이러니하다"고 썼다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
미 국방부가 Anthropic에게 AI 안전장치 제거를 요구하며 거부 시 제재 위협. AI 윤리와 국가안보 충돌의 새로운 국면
정치 딥페이크를 구별하는 능력을 키우는 '접종 이론' 연구 결과. 텍스트 설명과 게임 모두 효과적이지만, 장기 효과는 여전히 미지수
클로드 AI의 성격을 만든 철학자 아만다 애스켈. 인공지능을 도구가 아닌 인격체로 키우는 그녀의 철학과 딜레마를 들여다본다.
미국 보건장관 RFK 주니어의 '설탕은 독' 발언이 화제다. 하지만 과학은 무설탕보다 '적당한 설탕'을 지지한다. 과연 우리는 설탕을 어떻게 바라봐야 할까?
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요