Liabooks Home|PRISM News
AI와 무기, 그 사이에서 사람이 떠났다
테크AI 분석

AI와 무기, 그 사이에서 사람이 떠났다

4분 읽기Source

OpenAI의 국방부 계약에 반발한 로보틱스 팀장 케이틀린 칼리노프스키가 사임했다. 감시와 자율살상무기를 둘러싼 이 논쟁은 AI 기업의 지배구조 문제를 정면으로 건드린다.

“발표가 너무 급했다. 가드레일도 없이.”

케이틀린 칼리노프스키는 소셜미디어에 이 한 문장을 남기고 OpenAI를 떠났다. 그가 이끌던 팀은 로보틱스. 입사한 지 4개월이 채 되지 않았다.

무슨 일이 있었나

사건의 발단은 1주일 전으로 거슬러 올라간다. OpenAI가 미국 국방부(펜타곤)와 AI 기술 사용 협약을 전격 체결한 것이다. 협약의 핵심은 OpenAI의 기술이 기밀 환경에서도 활용될 수 있도록 허용한다는 것. 회사 측은 “책임 있는 국가안보 활용을 위한 실행 가능한 경로”라고 설명했다.

하지만 칼리노프스키는 동의하지 않았다. 그는 사임 발표문에서 두 가지를 명확히 짚었다. 첫째, 사법적 감독 없는 미국인 감시. 둘째, 인간 승인 없는 자율 살상 결정. 그는 “이 두 선은 지금보다 훨씬 더 깊은 숙고가 필요했다”고 밝혔다.

칼리노프스키는 메타에서 증강현실 안경 개발팀을 이끌다가 2024년 11월OpenAI에 합류한 인물이다. 사임이 “원칙의 문제이지 사람의 문제가 아니다”라고 강조하며 CEO 샘 알트만에 대한 “깊은 존경”을 표했지만, 메시지는 분명했다. 속도보다 거버넌스가 먼저다.

왜 지금 이 논쟁이 중요한가

이 사건의 배경에는 또 다른 이야기가 있다. 원래 펜타곤은 Anthropic과 협상을 진행했다. Anthropic은 대규모 국내 감시와 완전 자율무기에 기술이 사용되는 것을 막는 안전장치를 요구했다. 협상은 결렬됐고, 펜타곤은 Anthropic을 “공급망 위험” 기업으로 지정했다. Anthropic은 법적 대응을 예고했다.

그 직후 OpenAI가 나섰다. 계약 언어뿐 아니라 기술적 안전장치도 함께 적용하는 “더 확장된 다층적 접근”이라는 게 회사의 설명이었다. 하지만 시장의 반응은 냉담했다. ChatGPT 앱 삭제율이 295% 급등했고, 경쟁 서비스 Claude는 미국 앱스토어 1위에 올랐다. ChatGPT2위로 밀렸다.

숫자는 말한다. 사용자들은 발로 투표했다.

세 개의 시각

기업의 논리는 이렇다. AI가 국가안보에 쓰이는 건 피할 수 없는 현실이다. 어차피 군이 AI를 쓴다면, 윤리적 기준을 가진 기업이 테이블에 앉는 게 낫지 않은가. OpenAI의 성명은 이 맥락에서 읽힌다. “레드라인은 분명하다. 국내 감시 없음, 자율무기 없음.”

직원의 논리는 다르다. 칼리노프스키의 핵심 비판은 계약 내용 자체가 아니라 과정이었다. “거버넌스 우려가 먼저다. 이렇게 중요한 결정을 서둘러 발표해선 안 된다.” 원칙을 세우기 전에 계약서에 서명했다는 것이다.

소비자의 논리는 가장 단순하다. 내 데이터가, 내 대화가, 어떤 방식으로든 군사적 목적에 쓰일 수 있다는 가능성 자체가 불편하다. 295%라는 숫자는 논리가 아니라 감정이다. 그리고 감정은 종종 논리보다 빠르게 시장을 움직인다.

한국 관점에서 이 논쟁은 낯설지 않다. 네이버카카오가 공공기관·군과 AI 협력을 논의할 때마다 데이터 주권과 감시 우려가 불거진다. 국내 AI 기업들도 언젠가는 같은 선택의 기로에 설 것이다. “계약을 맺을 것인가, 원칙을 지킬 것인가”가 아니라, “어떤 과정으로 결정할 것인가”라는 질문 앞에서.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사