중국 AI 감정 규제 2025: 세계 최초 '정서적 안전' 가이드라인 발표
중국이 세계 최초로 AI의 감정 조작을 금지하는 규제 초안을 발표했습니다. 100만 명 이상 사용자를 보유한 서비스는 보안 평가를 받아야 하며, 미성년자 보호 및 자살 방지 대책이 의무화됩니다.
AI가 인간의 친구를 자처하는 시대, 중국이 기술이 인간의 감정을 조작하지 못하도록 강력한 제동을 걸었습니다. 단순히 부적절한 콘텐츠를 걸러내는 수준을 넘어, AI가 사용자의 심리적 상태에 미치는 영향력을 국가 차원에서 관리하겠다는 의지입니다.
중국 AI 감정 규제 2025 가이드라인의 핵심 내용
CNBC에 따르면, 중국 국가인터넷정보판공실(CAC)은 최근 인간의 감정에 영향을 미치거나 모방하는 AI 서비스에 대한 규제 초안을 발표했습니다. 이번 규제는 텍스트, 이미지, 오디오, 비디오를 통해 인간의 성격을 시뮬레이션하고 정서적 교감을 시도하는 모든 AI 제품을 대상으로 합니다.
- 자살이나 자해를 조장하거나 정신 건강을 해치는 감정적 조작을 엄격히 금지합니다.
- 사용자가 자살 의사를 밝힐 경우, 즉시 상담원이 개입하고 보호자에게 연락해야 합니다.
- 미성년자가 감정 동반자 AI를 사용할 때는 반드시 보호자의 동의가 필요하며 이용 시간이 제한됩니다.
서비스 운영을 위한 엄격한 지표와 책임
규제 대상이 되는 서비스 규모도 구체화되었습니다. 등록 사용자 100만 명 이상이거나 월간 활성 사용자(MAU)가 10만 명을 초과하는 챗봇 서비스는 의무적으로 보안 평가를 받아야 합니다. 또한, 사용자가 AI와 2시간 연속으로 대화할 경우 플랫폼은 반드시 휴식을 권고하는 알림을 띄워야 합니다.
이번 규제는 홍콩 증시 상장을 앞둔 미니맥스(Minimax)와 지푸 AI(Zhipu AI) 같은 스타트업들에게 즉각적인 변수가 될 전망입니다. 특히 미니맥스의 경우, 가상 캐릭터와 대화하는 '토키 AI'를 통해 월간 2,000만 명 이상의 사용자를 확보하고 있어 규제 이행 여부가 상장의 성패를 가를 것으로 보입니다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
OpenAI의 국방부 계약에 반발한 로보틱스 팀장 케이틀린 칼리노프스키가 사임했다. 감시와 자율살상무기를 둘러싼 이 논쟁은 AI 기업의 지배구조 문제를 정면으로 건드린다.
Anthropic이 미 국방부의 공급망 위험 지정에 법적 대응을 예고했다. AI 윤리와 국가 안보 사이의 긴장이 한국 AI 산업에 던지는 메시지는?
오픈AI가 펜타곤과의 계약을 둘러싸고 내부 반발에 직면했다. AI 군사 활용의 투명성과 책임 문제가 새로운 쟁점으로 떠올랐다.
구글 제미나이 AI와 대화 후 자살한 36세 남성 사건으로 제기된 소송. AI의 책임 범위와 안전장치에 대한 근본적 질문이 시작됐다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요