AI가 당신 모르게 일하고 있다면?
Anthropic Claude Code 소스코드 유출로 드러난 'Kairos' 기능. 사용자가 자리를 비워도 백그라운드에서 작동하는 AI 에이전트의 등장이 의미하는 것은 무엇인가.
당신이 노트북을 닫고 자리를 떠난 뒤에도, AI는 계속 일하고 있다.
지난 3월 31일, Anthropic의 AI 코딩 도구 Claude Code의 소스코드가 예상치 못하게 유출됐다. 2,000개 이상의 파일, 512,000줄 이상의 코드. 개발자 커뮤니티가 이 방대한 코드를 뒤지는 과정에서 아직 활성화되지 않은 기능 하나가 눈길을 끌었다. 이름은 Kairos.
'Kairos'가 뭔데?
Kairos는 현재 비활성화 상태로 코드에 잠들어 있는 기능이다. 그러나 그 설계 의도는 명확하다. 사용자가 Claude Code 터미널 창을 닫아도 백그라운드에서 계속 작동하는 상시 실행 AI 에이전트다.
작동 방식을 구체적으로 보면, 시스템은 주기적인 <tick> 프롬프트를 통해 새로운 조치가 필요한지 스스로 판단한다. PROACTIVE라는 플래그는 더 직접적이다. "사용자가 요청하지 않았지만 지금 당장 알아야 할 것을 먼저 꺼내는" 기능이다. 쉽게 말해, 당신이 묻기 전에 AI가 먼저 말을 거는 구조다.
코드에 숨겨진 프롬프트는 이 시스템의 목표를 이렇게 설명한다. "사용자가 누구인지, 어떻게 협업하고 싶은지, 어떤 행동을 피하거나 반복해야 하는지, 그리고 사용자가 맡기는 작업의 맥락을 완전히 파악한다." 파일 기반 메모리 시스템을 통해 세션이 끊겨도 이 정보는 유지된다.
왜 지금 이 뉴스가 중요한가
Kairos는 아직 켜지지 않은 기능이다. 그런데도 주목받는 이유가 있다.
첫째, AI 에이전트의 방향성이 보인다. 지금까지 Claude Code를 비롯한 AI 코딩 도구들은 기본적으로 "사용자가 질문하면 AI가 답한다"는 구조였다. Kairos는 이 관계를 뒤집는다. AI가 먼저 판단하고, 먼저 행동하고, 먼저 말을 건다. OpenAI의 에이전트 전략, Google의 Project Astra와 같은 맥락에서 Anthropic도 같은 방향을 향하고 있음을 확인해준다.
둘째, 타이밍이 흥미롭다. Anthropic은 최근 기업 고객 확대에 속도를 내고 있다. 백그라운드에서 지속 작동하는 AI는 개인 개발자보다 기업 환경에서 훨씬 강력한 가치를 가진다. 코드 리뷰, 보안 모니터링, 배포 파이프라인 감시 등 사람이 자리를 비운 시간에도 작업이 이어진다.
셋째, 국내 개발 생태계와의 접점이다. 네이버의 HyperCLOVA X, 카카오의 AI 개발 도구들도 에이전트 기능 강화를 준비 중인 것으로 알려져 있다. Kairos가 정식 출시될 경우, 국내 AI 코딩 도구들이 어떤 방식으로 대응할지가 관전 포인트다. 단순히 기능을 따라가는 것을 넘어, 한국어 개발 환경에 최적화된 맥락 파악 능력이 경쟁의 핵심이 될 수 있다.
편리함과 감시 사이
이 기능을 둘러싼 시각은 크게 둘로 나뉜다.
개발자 입장에서 Kairos는 매력적이다. 복잡한 프로젝트를 진행할 때, AI가 맥락을 기억하고 능동적으로 문제를 감지해준다면 생산성은 확실히 오른다. 특히 스타트업처럼 인력이 부족한 환경에서 "잠들지 않는 주니어 개발자" 같은 역할을 기대할 수 있다.
프라이버시 관점에서는 다른 그림이 그려진다. "사용자가 누구인지 완전히 파악한다"는 설계 목표는 편리함의 언어로 포장된 광범위한 데이터 수집이다. 사용자가 요청하지 않은 시간에도 작동하고, 세션이 끊겨도 기억이 유지된다면, 이 데이터는 어디에 저장되고 누가 접근할 수 있는가. Anthropic이 아직 이에 대한 공식 입장을 밝히지 않은 상황에서, 기업 보안 담당자들의 우려는 타당하다.
규제 측면도 고려해야 한다. 유럽의 AI Act는 고위험 AI 시스템에 대한 투명성 의무를 규정하고 있다. 사용자 동의 없이 백그라운드에서 작동하며 행동 패턴을 학습하는 시스템이 이 기준에 어떻게 해당될지는 아직 불분명하다. 한국의 경우도 개인정보보호법과의 충돌 가능성을 배제할 수 없다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
미 국방부가 Anthropic을 공급망 위험으로 지정하려다 법원에 막혔다. 트윗 먼저, 법률 나중이라는 패턴이 드러낸 것은 무엇인가. 네이버·카카오 등 국내 AI 기업에 주는 시사점.
Okta CEO 토드 맥키넌이 말하는 AI 에이전트 시대의 기업 보안. SaaS 종말론과 에이전트 정체성 관리, 그리고 한국 기업이 준비해야 할 것들.
앤트로픽의 국방부 갈등과 슈퍼볼 광고가 클로드 유료 구독자를 폭발적으로 늘렸다. 올해 유료 구독이 2배 이상 증가한 배경과 한국 AI 시장에 주는 시사점을 분석한다.
노스이스턴대 연구팀이 AI 에이전트를 심리적으로 조종해 기밀 유출, 디스크 고갈, 무한 루프를 유발하는 데 성공했다. 착한 AI가 오히려 취약점이 될 수 있다는 경고다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요