Estás entrenando a tu sustituto: cómo Cowork usa tu experiencia
Todos hemos interiorizado el viejo dicho: "Si el producto es gratis, el producto eres tú." Así que cuando las herramientas de IA empezaron a cobrar 20 $/mes, muchos nos relajamos en silencio. Estamos pagando. Somos clientes. Nuestros datos probablemente están a salvo.
Esa suposición se desmorona cuando miras de cerca cómo funcionan realmente las herramientas "agénticas" como Cowork de Anthropic.
Cowork es un nuevo modo en Claude Desktop. En lugar de un chat de ida y vuelta, le otorgas acceso a tus archivos locales y dejas que realice tareas: organizar descargas, analizar hojas de cálculo, redactar presentaciones, sintetizar investigación a lo largo de decenas de documentos. El marketing hace mucho énfasis en que se ejecuta "en tu ordenador" y destaca el uso "local".
Usado correctamente, es potente. Pero la forma en que gestiona tus datos, y cómo esos datos pueden ser utilizados, merece una explicación clara.
Lo que "se ejecuta en local" realmente significa
Anthropic dice que Cowork "se ejecuta en tu ordenador". El historial de conversaciones se "almacena localmente". Hay una máquina virtual local que mantiene las cosas "aisladas".
La mayoría de la gente entenderá esto como: mis archivos se procesan localmente en mi máquina.
Eso no es lo que está pasando.
El modelo de IA en sí no se ejecuta en tu portátil. Se ejecuta en los centros de datos de Anthropic. Cuando Cowork lee tus archivos, el contenido se envía a los servidores de Anthropic para su procesamiento. Lo que se "almacena localmente" es el registro del chat y el estado de la sesión, no el cálculo central del modelo.
En otras palabras: el hecho de que veas una aplicación de escritorio y una máquina virtual local no significa que tus documentos nunca salgan de tu dispositivo. Sí salen. "Se ejecuta en local" y "se procesa en local" son afirmaciones muy diferentes desde una perspectiva de privacidad.
Entrenamiento: opt-out, no desactivado por defecto
En Claude Pro, tus conversaciones son elegibles para el entrenamiento de modelos por defecto, a menos que lo desactives explícitamente. Anthropic implementó un flujo de opt-in a finales de 2025, pero si descartaste o te saltaste ese aviso, tu cuenta podría seguir con el entrenamiento activado.
Combina eso con el comportamiento de Cowork:
En un chat normal, pegas contenido de forma selectiva. En Cowork, puedes conceder acceso a carpetas enteras: propuestas de clientes, modelos financieros, documentos de estrategia, memorandos internos, análisis competitivos. Eso es un conjunto de datos enormemente mayor y más sensible que una interacción de chat típica.
Incluso cuando desactivas el entrenamiento, tus datos se siguen enviando a los servidores de Anthropic para satisfacer tu solicitud. Desactivar "Ayudar a mejorar Claude" aborda solo una parte del ciclo de vida, no las preguntas más amplias sobre retención, acceso y auditoría.
Los planes Enterprise no cubren completamente Cowork
Es razonable asumir: "Los planes de consumo son flexibles, pero Enterprise debe estar blindado. Para eso pagas la prima."
La propia documentación de Anthropic para Cowork complica esa expectativa. Declaran explícitamente:
"La actividad de Cowork no se captura en los registros de auditoría, la API de cumplimiento ni las exportaciones de datos. No utilice Cowork para cargas de trabajo reguladas."
Los registros de auditoría y las APIs de cumplimiento en las que confían los clientes Enterprise no reflejan la actividad de Cowork. Los datos procesados a través de Cowork quedan fuera de los mecanismos normales de exportación y supervisión. La propia Anthropic advierte contra el uso de Cowork para cargas de trabajo reguladas.
Así que, aunque tu organización pueda tener un DPA, auditorías y controles de retención para el uso principal de Claude, Cowork queda fuera de esos controles a menos que Anthropic cambie la integración.
Esto es lo opuesto a lo que muchos equipos de seguridad y cumplimiento asumen: que las nuevas funcionalidades heredan las protecciones existentes por defecto.
El riesgo real: estás sistematizando tu propia experiencia
La dinámica más importante, y menos discutida, no es simplemente que tus documentos se procesen o incluso se retengan. Es cómo se está codificando tu experiencia.
Cuando un consultor alimenta trabajo recurrente de clientes a través de Cowork, o un analista lo usa para estructurar investigación propietaria, o un directivo procesa documentos de estrategia interna a través de él, no están simplemente usando una herramienta. Están sistematizando sus propios patrones: marcos analíticos, estilo y tono de escritura, heurísticas específicas del dominio, conocimiento sectorial acumulado durante años.
Si esos datos se utilizan en el entrenamiento de modelos, esos patrones pasan a formar parte del comportamiento del modelo. Futuros usuarios podrán pedir a Claude que "redacte un análisis competitivo para [tu sector]" y recibir resultados influenciados por los patrones de usuarios anteriores en ese mismo ámbito. Usuarios que nunca pretendieron que sus marcos de trabajo se convirtieran en una funcionalidad genérica del producto.
Es una consecuencia directa de cómo los grandes modelos aprenden de los datos de entrenamiento. Cuanto más especializado sea tu trabajo, más valioso es como señal de entrenamiento, y más directamente puede erosionar tu diferenciación si no tienes cuidado con adónde van esos datos.
En la década de 2010, el intercambio era atención a cambio de productos gratuitos y anuncios dirigidos. En la década de 2020, el intercambio se está convirtiendo rápidamente en tu experiencia a cambio de mejoras en los modelos.
Búsqueda web: una vía de salida separada
Incluso si intentas bloquear el acceso a la red dentro de Cowork, hay una excepción importante: la búsqueda web.
La documentación de Anthropic señala:
"Los permisos de salida de red no se aplican a la herramienta de búsqueda web."
Las consultas que Cowork realiza en tu nombre — qué estás investigando, qué mercados, qué tecnologías — se siguen enviando a proveedores de búsqueda externos. Estas consultas pueden revelar contexto empresarial como clientes, sectores, estructuras de operaciones y panoramas competitivos, incluso si los documentos subyacentes permanecen restringidos.
Puedes restringir con éxito la salida directa de archivos mientras expones involuntariamente una huella detallada de tus intereses y patrones de investigación.
Por qué los planes de consumo tienen la estructura que tienen
Las ofertas empresariales típicamente proporcionan DPAs, exclusiones de entrenamiento, controles de retención más estrictos, registros de auditoría y herramientas de cumplimiento. Son protecciones contractuales negociadas. Requieren tiempo, abogados y presupuesto.
En cambio, la mayoría de los primeros usuarios de Cowork están en planes individuales o de equipos pequeños. Freelancers y consultores independientes. Agencias boutique. Pequeños equipos internos y trabajadores del conocimiento individuales.
Los datos de este grupo son desproporcionadamente valiosos: altamente especializados, directamente vinculados a experiencia generadora de ingresos, densos en marcos y tácticas propietarias. Sin embargo, están en planes que por defecto permiten el entrenamiento a menos que desactives explícitamente la opción, dependen de interruptores de interfaz en lugar de contratos ejecutables y ofrecen auditabilidad y gobernanza limitadas.
Eso no es necesariamente malintencionado. Es cómo ha funcionado el SaaS de consumo durante años. Pero el modelo de negocio depende de grandes volúmenes de datos de usuario de alta calidad, y los expertos individuales son una fuente especialmente rica de esos datos.
Cómo diseñamos Wysor de forma diferente
Cuando construimos Wysor, partimos de una premisa diferente: tu experiencia es un activo, no combustible para el modelo de otro.
Antes de escribir código, establecimos Acuerdos de Procesamiento de Datos con cada proveedor de IA que utilizamos. No como una opción de preferencia, sino como una garantía legal de base sobre cómo se tratan tus datos.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Entrenamiento con tus datos | Opt-out en la interfaz (históricamente activado por defecto) | Contractualmente prohibido en todos los planes, incluido el gratuito |
| Registro de auditoría | Sin registro de auditoría para la actividad de Cowork | Registro de auditoría completo de actividad y accesos |
| Retención de datos | 30 días a 5 años según el contexto | Minimizada al mínimo técnico estricto, definido en contratos |
| Mecanismo de aplicación | Interruptores de configuración y lenguaje de políticas | DPAs y contratos comerciales con recurso legal |
Si eres consultor, analista u operador cuyos documentos son tu diferenciación, esto importa. Deberías poder usar IA avanzada sin convertir tus patrones únicos en una funcionalidad genérica para todos los demás.
Si estás usando Cowork hoy
Cowork puede ser genuinamente útil. El objetivo no es evitarlo por completo. Es entender las compensaciones y tomar decisiones informadas.
-
Revisa tus ajustes de entrenamiento. En Claude: Configuración, Privacidad. Asegúrate de que "Ayudar a mejorar Claude" esté desactivado si no quieres que tus datos se usen en el entrenamiento.
-
Sé deliberado con las carpetas que expones. Evita apuntar Cowork a directorios que contengan tu trabajo más sensible con clientes, estrategia interna o datos regulados, especialmente hasta que Anthropic ofrezca un registro de auditoría completo para Cowork.
-
Reconoce los límites de los interruptores. Desactivar el entrenamiento no impide todas las formas de acceso o retención de datos. La búsqueda web y otras integraciones pueden seguir revelando contexto significativo sobre en qué estás trabajando.
-
Prefiere protecciones contractuales cuando sea posible. Para trabajo que afecta materialmente a tus clientes o tu ventaja competitiva, usa herramientas donde las garantías de privacidad estén respaldadas por contratos, no solo por preferencias.
O utiliza un espacio de trabajo que comience con garantías contractuales de privacidad y diseñe en torno a ellas, en lugar de pedirte que las aceptes como algo secundario.
Sigue leyendo
- Tu IA sabe más de lo que crees — Una comparativa práctica de las políticas de privacidad de ChatGPT, Claude y Gemini.
- Shadow AI: Cuando tus empleados usan ChatGPT a tus espaldas — Por qué las prohibiciones simples no funcionan y cómo gestionar el uso de IA sin perder el control de tus datos.
- Privacidad total: tus datos nunca salen de tu control — Cómo Wysor ofrece IA de frontera manteniendo tus datos bajo estricto control contractual y técnico.
Todas las descripciones de productos y referencias a políticas se basan en la documentación de Cowork de Anthropic, las políticas de privacidad de Claude y los términos de servicio a fecha de marzo de 2026. Revisa siempre la documentación oficial más reciente antes de tomar decisiones sobre cargas de trabajo sensibles o reguladas.



