Liabooks Home|PRISM News
오픈AI, 군사 계약 논란 속 '블랙박스' 딜레마
테크AI 분석

오픈AI, 군사 계약 논란 속 '블랙박스' 딜레마

4분 읽기Source

오픈AI가 펜타곤과의 계약을 둘러싸고 내부 반발에 직면했다. AI 군사 활용의 투명성과 책임 문제가 새로운 쟁점으로 떠올랐다.

48시간만에 뒤바뀐 계약서

오픈AI가 미 국방부와 맺은 계약이 48시간만에 수정됐다. 직원들의 거센 반발과 외부 전문가들의 비판이 쏟아진 후였다. 샘 알트만 CEO는 소셜미디어에서 “허술해 보였다”고 인정했지만, 이미 AI 군사 활용을 둘러싼 근본적 질문들이 수면 위로 떠올랐다.

문제의 핵심은 투명성이다. 오픈AI는 2023년 군사 사용을 명시적으로 금지했지만, 같은 해 펜타곤 관계자들이 샌프란시스코 본사를 드나들고 있었다는 내부 증언이 나왔다. 직원들은 마이크로소프트의 Azure OpenAI를 통해 이미 국방부가 AI 모델에 접근하고 있다는 사실을 뒤늦게 알았다고 전했다.

정책 변화의 ‘조용한’ 역사

2024년 1월, 오픈AI는 군사 사용 금지 조항을 슬그머니 삭제했다. 놀랍게도 일부 직원들은 언론 보도를 통해 이 사실을 알았다. 회사 측은 이후 전체 회의에서 “신중하게 접근하겠다”고 해명했지만, 직원들 사이에서는 혼란이 계속됐다.

같은 해 12월, 오픈AI는 방산업체 안듀릴과의 파트너십을 발표했다. 회사는 직원들에게 “범위가 제한적이고 비기밀 업무만 다룬다”고 설명했다. 하지만 팰런티어와 손잡은 앤스로픽의 기밀 군사 업무와는 다르다는 점을 강조하며 선을 그었다.

흥미롭게도 오픈AI팰런티어의 ‘FedStart’ 프로그램 참여 제안을 거절했다. 내부적으로 “위험도가 너무 높다”고 판단했기 때문이다. 그러나 현재는 다른 방식으로 팰런티어와 협력하고 있다.

직원들의 엇갈린 목소리

가장 최근 펜타곤 계약 발표 후, 수십 명의 직원들이 슬랙 채널에서 우려를 표했다. 한 직원은 “신용카드 정보도 제대로 처리하지 못하는 모델이 전장에서 미군을 도울 수 있겠느냐”고 의문을 제기했다.

반면 다른 직원들은 안듀릴 파트너십이 회사의 책임감 있는 접근을 보여준다고 평가했다. 한 연구원은 "오픈AI는 광범위한 기밀 배치에서 ‘두 번 재고, 한 번 실행’ 방식을 취하고 있다"고 말했다.

하지만 전직 지정학 팀장 사라 쇼커는 “가장 큰 피해자는 일반 시민과 분쟁 지역 민간인”이라며 “기술 설계와 정책의 불투명성으로 인해 군사 AI의 영향을 이해하기 어렵다”고 비판했다.

법적 감시의 한계

법률 전문가들은 오픈AI의 공개 발언을 토대로 펜타곤이 “기술적으로 합법적인” 감시 활동에 AI를 사용할 수 있다고 분석했다. 예를 들어 제3자 업체로부터 미국인 사용자 데이터를 구매해 AI로 분석하는 것이다.

찰리 불록 법률·AI연구소 선임연구원은 "계약서 전문을 보지 않고서는 오픈AI의 말을 믿을 수밖에 없다"고 지적했다. 투명성 부족이 공공 감시를 어렵게 만든다는 것이다.

화요일 전체 회의에서 알트만은 직원들에게 “국방부가 AI 소프트웨어로 무엇을 하든 우리가 결정할 일이 아니다”라고 말했다고 전해진다. 그는 또한 나토에도 AI 모델 판매에 관심이 있다고 밝혔다.

본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.

의견

관련 기사