AI가 직접 만든 AI 도구, Anthropic의 Claude Cowork 미리보기
Anthropic이 AI 코딩 도구 Claude Code를 이용해 직접 개발한 비개발자용 AI 에이전트 'Cowork'를 공개했습니다. macOS Claude Max 구독자를 위한 리서치 프리뷰 소식을 확인하세요.
AI가 스스로를 개발하는 시대가 열렸다. Anthropic이 공개한 새로운 생산성 실험 도구인 Cowork는 그 기능만큼이나 제작 과정이 독특하다. 이 도구는 개발자용 AI 코딩 툴인 Claude Code를 비개발자용으로 재해석한 버전인데, 놀랍게도 제품의 거의 모든 코드를 Claude Code가 직접 작성했다. AI가 제품인 동시에 개발 프로세스의 핵심 주체가 된 셈이다.
Claude Cowork: 비개발자를 위한 자율형 AI 에이전트
Cowork는 단순한 챗봇을 넘어 사용자의 컴퓨터 폴더에 직접 접근해 실질적인 업무를 수행한다. 사용자가 파일을 정리하거나 보고서를 초안하고, 스크린샷에서 데이터를 추출해 스프레드시트를 작성하도록 명령하면 AI가 스스로 계획을 세우고 단계별로 실행한다. 기존의 대화형 인터페이스와 달리 높은 수준의 자율성을 갖춘 것이 특징이며, 작업 진행 상황을 사용자에게 실시간으로 공유하며 소통한다.
사용자 경험에서 탄생한 에이전트 기술
Anthropic 측에 따르면, 이번 프로젝트는 Claude Code 사용자들의 행동 패턴에서 영감을 얻었다. 개발자들이 코딩 도구를 여행 계획 수립이나 개인 데이터 관리 등 일상적인 작업에 활용하는 모습을 목격한 것이다. Claude Code의 책임자인 보리스 체르니는 X(구 트위터)를 통해 Cowork의 제작 비중에 대해 "전부(All of it)"라고 답하며 AI에 의한 개발 성과를 강조했다.
본 콘텐츠는 AI가 원문 기사를 기반으로 요약 및 분석한 것입니다. 정확성을 위해 노력하지만 오류가 있을 수 있으며, 원문 확인을 권장합니다.
관련 기사
미 국방부가 Anthropic을 공급망 위험 업체로 지정했지만, MS와 구글은 Claude 서비스를 계속 제공한다고 발표. AI 군사화를 둘러싼 실리콘밸리 갈등의 새로운 국면.
Anthropic의 Claude가 파이어폭스에서 22개 보안 취약점을 발견. AI 보안 도구의 가능성과 한계를 동시에 보여준 사건
미 국방부와 Anthropic 갈등으로 드러난 AI 안전 정책의 한계. 킬러 로봇과 무제한 감시가 현실이 되고 있다.
펜타곤이 Anthropic과의 2억 달러 계약을 파기하고 OpenAI를 선택한 배경. 군사 AI의 통제권을 둘러싼 실리콘밸리와 국방부의 갈등을 분석합니다.
의견
이 기사에 대한 생각을 나눠주세요
로그인하고 의견을 남겨보세요