당신은 후임자를 훈련시키고 있습니다: Cowork가 당신의 전문성을 사용하는 방법
우리 모두 오래된 격언을 내면화했습니다: "제품이 무료라면, 당신이 제품입니다." 그래서 AI 도구들이 월 $20를 청구하기 시작했을 때, 많은 사람들이 조용히 안심했습니다. 우리가 비용을 내고 있으니. 우리가 고객이니. 우리 데이터는 아마 괜찮겠지.
하지만 Anthropic의 Cowork 같은 "에이전틱" 도구가 실제로 어떻게 작동하는지 자세히 들여다보면 그 가정은 무너집니다.
Cowork는 Claude Desktop의 새로운 모드입니다. 주고받는 채팅이 아니라, 로컬 파일에 대한 접근 권한을 부여하고 작업을 수행하게 합니다: 다운로드 정리, 스프레드시트 분석, 프레젠테이션 초안 작성, 수십 개의 문서에 걸친 리서치 종합. 마케팅은 "당신의 컴퓨터에서" 실행된다는 점을 강조하고 "로컬" 사용을 강조합니다.
올바르게 사용하면 강력합니다. 하지만 데이터를 처리하는 방식과 그 데이터가 어떻게 사용될 수 있는지는 명확한 설명이 필요합니다.
"로컬에서 실행"이 실제로 의미하는 것
Anthropic은 Cowork가 "당신의 컴퓨터에서 실행된다"고 말합니다. 대화 기록은 "로컬에 저장된다"고 합니다. 로컬 VM이 것들을 "격리"시킨다고 합니다.
대부분의 사람들은 당연히 이렇게 읽을 것입니다: 내 파일이 내 기기에서 로컬로 처리된다.
실제로는 그렇지 않습니다.
AI 모델 자체는 당신의 노트북에서 실행되지 않습니다. Anthropic의 데이터 센터에서 실행됩니다. Cowork가 파일을 읽을 때, 내용은 처리를 위해 Anthropic의 서버로 전송됩니다. "로컬에 저장되는" 것은 채팅 로그와 세션 상태이지, 핵심 모델 계산이 아닙니다.
다시 말해: 데스크톱 앱과 로컬 VM이 보인다고 해서 문서가 기기를 떠나지 않는 것은 아닙니다. 떠납니다. "로컬에서 실행"과 "로컬에서 처리"는 프라이버시 관점에서 매우 다른 말입니다.
학습: 기본적으로 꺼져 있는 것이 아니라, 거부해야 꺼짐
Claude Pro에서는 명시적으로 거부하지 않는 한 대화가 기본적으로 모델 학습에 사용될 수 있습니다. Anthropic은 2025년 후반에 동의 확인 절차를 도입했지만, 해당 프롬프트를 무시하거나 건너뛰었다면 계정이 여전히 동의 상태일 수 있습니다.
Cowork의 동작과 결합하면:
일반 채팅에서는 콘텐츠를 선택적으로 붙여넣습니다. Cowork에서는 전체 폴더에 접근 권한을 부여할 수 있습니다: 고객 제안서, 재무 모델, 전략 문서, 내부 메모, 경쟁 분석. 이것은 일반적인 채팅 상호작용보다 훨씬 크고 민감한 데이터셋입니다.
학습을 비활성화하더라도, 요청을 이행하기 위해 데이터는 여전히 Anthropic의 서버로 전송됩니다. "Claude 개선에 도움"을 끄는 것은 수명주기의 한 부분만 해결하며, 보존, 접근, 감사 가능성에 대한 더 넓은 질문은 해결하지 못합니다.
엔터프라이즈 요금제도 Cowork를 완전히 커버하지 못합니다
이렇게 가정하는 것이 합리적입니다: "소비자 요금제는 느슨하지만, 엔터프라이즈는 분명 잠겨 있을 거야. 프리미엄 비용을 내는 이유가 그것이니까."
Cowork에 대한 Anthropic 자체 문서가 그 기대를 복잡하게 합니다. 명시적으로 다음과 같이 언급합니다:
"Cowork 활동은 감사 로그, Compliance API, 또는 데이터 내보내기에 캡처되지 않습니다. 규제 대상 워크로드에 Cowork를 사용하지 마세요."
엔터프라이즈 고객이 의존하는 감사 로그와 규정 준수 API는 Cowork 활동을 반영하지 않습니다. Cowork를 통해 처리된 데이터는 일반적인 내보내기 및 감독 메커니즘 외부에 있습니다. Anthropic 자체가 규제 대상 워크로드에 Cowork 사용을 경고합니다.
따라서 핵심 Claude 사용에 대해 DPA, 감사, 보존 제어가 있을 수 있지만, Cowork는 Anthropic이 통합을 변경하지 않는 한 그러한 제어 밖에 있습니다.
이것은 많은 보안 및 규정 준수 팀이 가정하는 것의 반대입니다: 새로운 기능이 기존 가드레일을 기본적으로 상속한다는 가정.
진정한 위험: 자신의 전문성을 체계화하고 있습니다
가장 중요하면서도 가장 적게 논의되는 역학은 단순히 문서가 처리되거나 보존되는 것이 아닙니다. 전문성이 인코딩되는 방식입니다.
컨설턴트가 반복적인 고객 작업을 Cowork에 넣을 때, 또는 분석가가 독점 리서치를 구조화하는 데 사용할 때, 또는 경영진이 내부 전략 문서를 처리할 때, 그들은 단순히 도구를 사용하는 것이 아닙니다. 자신의 패턴을 체계화하고 있는 것입니다: 분석 프레임워크, 글쓰기 스타일과 톤, 도메인 특화 휴리스틱, 수년간 축적된 산업 지식.
그 데이터가 모델 학습에 사용되면, 그 패턴들은 모델 동작의 일부가 됩니다. 미래 사용자가 Claude에게 "[당신의 산업]에 대한 경쟁 분석을 작성해줘"라고 요청하면 같은 도메인의 이전 사용자 패턴의 영향을 받은 결과물을 받게 됩니다. 자신의 프레임워크가 범용 제품 기능이 되기를 의도하지 않았던 사용자들의 패턴.
이것은 대규모 모델이 학습 데이터에서 배우는 방식의 당연한 결과입니다. 당신의 작업이 전문적일수록 학습 신호로서의 가치가 높아지고, 데이터가 어디로 가는지 주의를 기울이지 않으면 차별화를 더 직접적으로 약화시킬 수 있습니다.
2010년대의 거래는 무료 제품과 타겟 광고 대가로 관심을 지불하는 것이었습니다. 2020년대의 거래는 빠르게 모델 개선 대가로 전문성을 지불하는 것으로 바뀌고 있습니다.
웹 검색: 별도의 데이터 유출 경로
Cowork 내에서 네트워크 접근을 차단하려 해도, 중요한 예외가 있습니다: 웹 검색.
Anthropic의 문서에 따르면:
"네트워크 이그레스 권한은 웹 검색 도구에 적용되지 않습니다."
Cowork가 사용자를 대신하여 실행하는 쿼리 -- 무엇을 조사하는지, 어떤 시장, 어떤 기술 -- 는 여전히 외부 검색 제공업체로 전송됩니다. 이러한 쿼리는 기본 문서가 제한되더라도 고객, 산업, 거래 구조, 경쟁 환경과 같은 비즈니스 맥락을 드러낼 수 있습니다.
직접적인 파일 유출을 성공적으로 제한하면서도 의도치 않게 리서치 관심사와 패턴의 상세한 흔적을 노출시킬 수 있습니다.
소비자 요금제가 이런 모습인 이유
엔터프라이즈 제품은 일반적으로 DPA, 학습 제외, 더 강력한 보존 제어, 감사 로그 및 규정 준수 도구를 제공합니다. 이것들은 협상된 계약적 보호입니다. 시간, 변호사, 예산이 필요합니다.
반면, Cowork의 대부분의 초기 사용자는 개인 또는 소규모 팀 요금제를 사용합니다. 프리랜서와 독립 컨설턴트. 부티크 에이전시. 소규모 내부 팀과 개인 지식 노동자.
이 그룹의 데이터는 불균형적으로 가치가 높습니다: 고도로 전문화되고, 수익 창출 전문성에 직접 연결되며, 독점적 프레임워크와 전술로 밀도가 높습니다. 그러나 명시적으로 거부하지 않으면 기본적으로 학습에 사용되는 요금제, 강제 가능한 계약이 아닌 UI 토글에 의존하는 요금제, 제한된 감사 가능성과 거버넌스를 가진 요금제를 사용하고 있습니다.
이것이 반드시 악의적인 것은 아닙니다. 수년간 소비자 SaaS가 작동해 온 방식입니다. 하지만 비즈니스 모델은 대량의 고품질 사용자 데이터에 의존하며, 개인 전문가는 해당 데이터의 특히 풍부한 원천입니다.
Wysor를 다르게 설계한 방법
Wysor를 만들 때, 우리는 다른 전제에서 시작했습니다: 당신의 전문성은 다른 누군가의 모델을 위한 연료가 아니라 자산입니다.
코드를 작성하기 전에, 사용하는 모든 AI 제공업체와 데이터 처리 계약(DPA)을 체결했습니다. 선호 설정 토글이 아니라, 데이터 처리 방식에 대한 기본적인 법적 보장으로서.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| 데이터를 학습에 사용 | UI 옵트아웃 (역사적으로 기본 활성화) | 무료 요금제 포함 모든 요금제에서 계약적으로 금지 |
| 감사 추적 | Cowork 활동에 대한 감사 로깅 없음 | 활동 및 접근에 대한 전체 감사 추적 |
| 데이터 보존 | 맥락에 따라 30일에서 5년 | 계약에 정의된 엄격한 기술적 최소한으로 최소화 |
| 집행 메커니즘 | 설정 토글과 정책 문구 | 법적 구제 수단이 있는 DPA 및 상업 계약 |
컨설턴트, 분석가, 또는 문서가 차별화인 운영자라면, 이것은 중요합니다. 독자적인 패턴이 다른 모든 사람을 위한 범용 기능이 되는 것을 걱정하지 않으면서도 고급 AI를 사용할 수 있어야 합니다.
현재 Cowork를 사용하고 있다면
Cowork는 진정으로 유용할 수 있습니다. 요점은 완전히 피하라는 것이 아닙니다. 트레이드오프를 이해하고 정보에 기반한 선택을 하라는 것입니다.
-
학습 설정을 확인하세요. Claude: 설정, 개인정보에서. 데이터가 학습에 사용되는 것을 원하지 않으면 "Claude 개선에 도움"이 꺼져 있는지 확인하세요.
-
어떤 폴더를 노출시킬지 신중하게 결정하세요. 특히 Anthropic이 Cowork에 대한 전체 감사 로깅을 제공할 때까지, 가장 민감한 고객 작업, 내부 전략, 규제 대상 데이터가 포함된 디렉토리를 Cowork에 노출시키는 것을 피하세요.
-
토글의 한계를 인식하세요. 학습을 거부해도 모든 형태의 데이터 접근이나 보존이 방지되지는 않습니다. 웹 검색 및 기타 통합이 작업 내용에 대한 상당한 맥락을 여전히 드러낼 수 있습니다.
-
가능하면 계약적 보호를 선호하세요. 고객이나 경쟁 우위에 중대한 영향을 미치는 작업의 경우, 프라이버시 보장이 선호도가 아닌 계약으로 뒷받침되는 도구를 사용하세요.
또는 계약적 프라이버시 보장에서 시작하여 그것을 중심으로 설계된 워크스페이스를 사용하세요. 사후에 수용하라고 요구하는 것이 아닌.
더 읽어보기
- 당신의 AI는 당신이 생각하는 것보다 더 많이 알고 있습니다 -- ChatGPT, Claude, Gemini의 프라이버시 정책에 대한 실용적 비교.
- 섀도우 AI: 직원들이 몰래 ChatGPT를 사용할 때 -- 단순 금지가 실패하는 이유와, 데이터 통제를 잃지 않으면서 AI 사용을 관리하는 방법.
- 완전한 프라이버시: 당신의 데이터는 절대 외부로 유출되지 않습니다 -- Wysor가 엄격한 계약적, 기술적 통제 하에 데이터를 유지하면서 최첨단 AI를 제공하는 방법.
모든 제품 설명 및 정책 참조는 2026년 3월 기준 Anthropic의 Cowork 문서, Claude 개인정보 보호 정책, 서비스 약관에 기반합니다. 민감하거나 규제 대상 워크로드에 대한 결정을 내리기 전에 항상 최신 공식 문서를 확인하세요.



