Liabooks Home|PRISM News
AI 안전 vs 군사 경쟁, 선택의 기로에 선 인류
테크AI 분석

AI 안전 vs 군사 경쟁, 선택의 기로에 선 인류

4분 읽기Source

미 국방부와 Anthropic 갈등으로 드러난 AI 안전 정책의 한계. 킬러 로봇과 무제한 감시가 현실이 되고 있다.

48시간 만에 무너진 AI 안전 합의

불과 며칠 전까지만 해도 AI 안전은 '선택'이 아닌 '필수'였다. 기업들은 이익보다 안전을 우선하겠다고 약속했고, 정부는 강력한 규제를 예고했다. 국제사회는 AI를 핵무기만큼 신중하게 다루자고 합의하는 듯했다.

그런데 지난주, 이 모든 희망이 한순간에 흔들렸다. 미 국방부와 AI 기업 Anthropic 사이의 격렬한 갈등이 그 시작이었다.

계약서에서 지워진 '빨간 선'

Anthropic은 국방부와 계약할 때 두 가지 조건을 고집했다. 자사의 AI 모델 Claude를 자율무기나 미국인 대량 감시에 사용하지 말라는 것이었다. 회사 창립 철학이었던 'AI 안전 우선주의'의 핵심이었다.

하지만 피트 헤그세스 국방장관은 이런 제약을 '말도 안 되는 일'이라고 일축했다. 계약 갱신 협상에서 이 조건들을 삭제하라고 요구했고, Anthropic이 거부하자 아예 계약을 파기해버렸다. 더 나아가 Anthropic을 '공급망 위험 기업'으로 지정해 다른 정부 기관과의 거래도 막았다.

문제는 여기서 끝나지 않았다.OpenAI가 즉시 Anthropic의 자리를 차지하겠다고 나섰기 때문이다. 샘 알트만 CEO는 "Anthropic에 대한 압력을 덜어주려고 했다"고 해명했지만, Anthropic의 다리오 아모데이 CEO는 "우리를 지지하는 척하면서 뒤통수를 치고 있다"며 분노를 드러냈다.

무너지는 '선의의 경쟁'

Anthropic이 추진했던 '책임감 있는 확장 정책(Responsible Scaling Policy)'도 사실상 실패를 인정했다. 이 정책은 AI 모델을 출시하기 전에 반드시 안전장치를 마련하겠다는 약속이었다. 다른 기업들도 따라 하도록 유도해 업계 전체의 '상향 경쟁'을 만들겠다는 야심찬 계획이었다.

하지만 지난 2월 24일, Anthropic은 이 정책의 수정을 발표하며 솔직하게 인정했다. "정책 환경이 AI 경쟁력과 경제 성장 우선으로 바뀌었다. 안전 중심의 논의는 연방 차원에서 아직 의미 있는 진전을 이루지 못했다."

한국은 어떻게 대응할까?

이런 상황에서 한국의 선택은? 삼성전자LG전자는 이미 AI 반도체와 가전에서 글로벌 경쟁을 벌이고 있다. 네이버카카오는 자체 AI 모델 개발에 박차를 가하고 있다. 미국이 AI 안전보다 경쟁력을 우선시한다면, 한국 기업들도 같은 압력을 받을 수밖에 없다.

특히 한국은 북한과 대치하고 있는 분단국가다. 미군이 자율무기 개발을 가속화한다면, 한국군도 이에 맞춰야 한다는 압력이 커질 것이다. 이미 한국은 DMZ에 AI 감시 시스템을 도입하고 있다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사