
Tu IA sabe más de lo que crees: comparativa de privacidad entre Claude, ChatGPT y Gemini
Tu IA sabe más de lo que crees: comparativa de privacidad entre Claude, ChatGPT y Gemini
Cada día pegas contratos, salarios, consultas médicas, documentos legales y estrategias de negocio en la IA. Le dictas notas de voz. Confías en ella más que en la mayoría de tus compañeros de trabajo.
¿Pero qué pasa con todo lo que le cuentas?
Leímos las políticas de privacidad para que tú no tengas que hacerlo. Esto es lo que encontramos — y por qué es exactamente la razón por la que creamos Wysor.
Tu suscripción de $20/mes no te garantiza privacidad
Claude Pro. ChatGPT Plus. Gemini Advanced. Podrías asumir que pagar $20/mes te da mejor protección de datos que el plan gratuito.
No es así. Gratuito o de pago, todos los planes para consumidores tienen las mismas políticas: tus conversaciones se usan para entrenamiento, pueden ser revisadas por humanos y se retienen durante mucho más tiempo del que crees.
La única forma de obtener privacidad real de estos proveedores es negociar un contrato empresarial — con condiciones distintas, precios distintos y un equipo comercial entre tú y tus datos.
Creamos Wysor para que no tengas que hacer esa llamada.
Cuánto tiempo permanecen tus conversaciones en sus servidores
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Retención por defecto | 30 días (o 5 años si se acepta el entrenamiento) | Indefinida | 18 meses | 30 días máximo (OpenAI). Otros: cero. |
| Después de "eliminar" | 30 días para eliminación real | 30 días para eliminación real | 72 horas mínimo | Minimizada mediante DPAs dedicados. |
Claude conserva tus datos durante 30 días por defecto. Pero en octubre de 2025, Anthropic activó silenciosamente el entrenamiento como opción predeterminada — lo que significa que, si no viste el aviso, tus conversaciones podrían estar almacenadas hasta 5 años.
ChatGPT conserva todo para siempre. Tus conversaciones permanecen en los sistemas de OpenAI hasta que las eliminas manualmente, y luego tardan otros 30 días en borrarlas realmente.
Gemini retiene durante 18 meses. Incluso si desactivas "Keep Activity", Google sigue conservando tus datos durante 72 horas. No existe retención cero real en ningún plan de consumo de Gemini.
Los DPAs dedicados de Wysor con cada proveedor minimizan la retención al mínimo técnico absoluto — y para la mayoría de los proveedores, eso es cero. Tus conversaciones viven en tu espacio de trabajo, no almacenadas en los servidores de los proveedores durante meses o años.
Los tres usan tus conversaciones para entrenar sus modelos
Por defecto. Los tres.
- Claude: Opción activa desde octubre de 2025 — pero Anthropic la dejó en "activada" por defecto para los usuarios que no respondieron activamente
- ChatGPT: Activado por defecto. Oculto en Settings > Data Controls
- Gemini: Activado por defecto. Desactiva "Keep Activity" para excluirte
¿Ese contrato que pegaste? Ahora es dato de entrenamiento. ¿Esa negociación salarial? Dato de entrenamiento. ¿Esa pregunta médica que te daba vergüenza hacerle a tu médico? Dato de entrenamiento.
La única forma de evitarlo es un plan empresarial — y eso implica una conversación de más de $25k con un equipo comercial.
Wysor nunca entrena con tus datos. Ni en el plan gratuito. Ni en el de pago. En ningún plan. Es contractual, no un interruptor.
Alguien en Google podría estar leyendo tus chats ahora mismo
Esto sorprende a la gente.
Google al menos es honesto al respecto. Advierten explícitamente a los usuarios de Gemini: "No introduzcas información confidencial que no querrías que un revisor viese." Las conversaciones revisadas por humanos se almacenan durante hasta 3 años, desvinculadas de tu cuenta — y eliminar la conversación no elimina la copia revisada.
OpenAI muestrea entre el 1 y el 2 % de todas las conversaciones para revisión humana, además de cualquier cosa marcada por sistemas automatizados.
Anthropic envía las conversaciones de Claude marcadas a su equipo de Trust & Safety. Esas entradas y salidas marcadas pueden conservarse durante hasta 2 años, con puntuaciones de seguridad almacenadas durante hasta 7 años.
Con Wysor, ningún humano de ningún proveedor de IA ve jamás tus conversaciones. Nuestros DPAs prohíben contractualmente la revisión humana, el muestreo y el marcado. Nadie está leyendo tus chats.
"Eliminar" no significa lo que crees que significa
- Gemini: Si tu conversación fue seleccionada para revisión humana antes de que la eliminaras, esa copia persiste durante hasta 3 años. No puedes borrarla. Puede que ni siquiera sepas que existe.
- Claude: Las conversaciones marcadas se retienen hasta 2 años. Eliminarlas no cambia nada.
- ChatGPT: En 2025, un juez federal en NYT v. OpenAI ordenó a OpenAI preservar todos los datos de conversaciones — incluyendo chats que los usuarios habían eliminado explícitamente — como posible evidencia. Los usuarios de Free, Plus, Pro y Team se vieron afectados. Los clientes de Enterprise y API quedaron exentos, esta vez.
Con Wysor, eliminar significa eliminar. Cuando los proveedores no retienen tus datos más allá de la ventana mínima de procesamiento, no hay nada que marcar, nada que preservar para litigios y nada almacenado en un servidor tres años después.
Un juez federal acaba de dictaminar que tus chats con IA no son privilegiados
En febrero de 2026, United States v. Heppner estableció que las conversaciones con Claude AI no están protegidas por el secreto profesional abogado-cliente y no constituyen producto del trabajo profesional.
El razonamiento: las políticas de Anthropic permiten la divulgación a autoridades gubernamentales y el uso para el entrenamiento de modelos. No existe una expectativa razonable de confidencialidad.
El precedente es claro: toda conversación con IA en un plan de consumo es potencialmente descubrible en procedimientos legales.
Es exactamente por esto que importa minimizar la retención en los servidores del proveedor. Un tribunal no puede obligar a un proveedor a entregar datos que nunca fueron almacenados.
Tu voz está yendo a lugares que no aceptaste
Las funciones de voz de la IA son populares. Los flujos de datos detrás de ellas son alarmantes.
Claude Voice
- El audio se envía a los servidores de Anthropic y luego se elimina en ~24 horas
- Cuando Claude responde con voz, usa ElevenLabs — un tercero — para la síntesis de voz. El contenido de tu conversación se envía a sus servidores
- El proveedor de reconocimiento de voz no se ha revelado públicamente
- No existe un acuerdo público de Zero Data Retention entre Anthropic y ElevenLabs
ChatGPT Voice
- Los clips de audio y vídeo se almacenan junto con tu conversación mientras el chat exista
- OpenAI es el único proveedor que retiene tus grabaciones de audio reales por defecto
- El audio no se usa para entrenamiento, pero las transcripciones de texto sí podrían usarse si no te has excluido
Gemini Voice
- El "Ephemeral Learning" de Google suena bien — audio procesado en RAM y eliminado. Pero solo se aplica al entrenamiento de la palabra de activación ("Hey Google"), no a tus solicitudes reales
- Tus solicitudes de voz aún se envían a los servidores de Google. En 2019, se descubrió que contratistas escuchaban más de 1.000 grabaciones, incluyendo activaciones accidentales que captaron conversaciones de dormitorio e información médica. Google pagó una multa de $68M
- Una demanda colectiva separada que cubre activaciones accidentales de 2016 a 2022 sigue pendiente en 2026
Apple Siri
- Solicitudes procesadas en servidor: Apple almacena transcripciones hasta 2 años para todos los usuarios
- La dictación en el dispositivo se queda en local, pero Apple aún recopila metadatos — categoría de solicitud, información del dispositivo, estadísticas de rendimiento
- Si accidentalmente aceptas "Improve Siri", Apple conserva tus grabaciones de voz reales hasta 2 años, revisables por empleados
- Apple afirma que un "identificador aleatorio rotativo" protege el anonimato. Pero recopilan tu IP, ubicación, contactos e información del dispositivo junto con cada solicitud — eso es seudonimización, no anonimización
- Apple pagó un acuerdo de $95M por activaciones involuntarias de Siri
Wysor Voice
- Todo ocurre en tu dispositivo. Tu audio nunca sale de tu teléfono
- Sin servidores. Sin terceros. Sin procesamiento en la nube. Funciona sin conexión
- No podemos filtrar tus datos de voz porque nunca los recibimos
Los planes empresariales tampoco te van a salvar
Los grandes proveedores te dirán que te actualices. Pero incluso si puedes asumir el coste, hay un problema que no mencionan: si tus datos existen en sus servidores, un tribunal puede obligarles a entregarlos.
| Claude Enterprise | ChatGPT Enterprise | Gemini Workspace | Wysor | |
|---|---|---|---|---|
| Qué cuesta obtener ZDR | Solo API, con aprobación | Gasto de $25k+, aprobación especial | No por defecto, requiere configuración | Nada. Es el valor por defecto. |
| Ventana de exposición de datos | Indefinida (datos marcados retenidos) | Indefinida (a menos que se negocie ZDR) | Indefinida (a menos que se configure) | 30 días máximo (solo OpenAI). Otros: cero. |
| Revisión humana | Las conversaciones marcadas siguen siendo revisadas | Marcadas (ninguna con ZDR) | Ninguna | Ninguna. Garantizado contractualmente. |
Puedes gastar $25k y negociar durante meses para obtener protecciones que aún dejan tus datos en los servidores de otro. O puedes usar Wysor, donde los DPAs dedicados minimizan la retención de los proveedores al mínimo técnico, ningún humano revisa tus conversaciones y nunca hablas con un equipo comercial para obtener la privacidad que debería haber sido el estándar desde el principio.
Entonces, ¿qué haces realmente al respecto?
Ahora mismo, tus empleados están pegando contratos en ChatGPT, discutiendo estrategia con Claude y subiendo datos de clientes a Gemini. Cada una de esas conversaciones está almacenada, es revisable, se puede usar para entrenamiento y es descubrible en un juicio.
Tienes dos opciones.
Opción A: Prohibir la IA en el trabajo. Observa cómo tus competidores te adelantan mientras tu equipo la usa de todas formas en dispositivos personales — ahora con cero supervisión y cero protección.
Opción B: Dales Wysor. Todos los modelos principales — GPT-5, Claude, Gemini, Perplexity — en un solo espacio de trabajo. DPAs dedicados que minimizan la retención de los proveedores. Sin revisión humana. Sin entrenamiento. Transcripción de voz en el dispositivo. Cumplimiento total con GDPR. Un único registro de auditoría en lugar de datos dispersos entre cuatro proveedores.
Las empresas que resuelven esto primero no solo evitan riesgos. Se mueven más rápido que todos los que siguen debatiendo si bloquear ChatGPT.
Sigue leyendo
- Privacidad total: tus datos nunca salen de tu control — Cómo Wysor ofrece IA de frontera con garantías contractuales de privacidad
- Tus notas de voz se están enviando a Apple. Las nuestras no. — Transcripción en el dispositivo que nunca sale de tu teléfono
- Shadow AI: cuando tus empleados usan ChatGPT a tus espaldas — Por qué prohibir la IA no funciona y qué hacer en su lugar
- Creamos el espacio de trabajo con IA que debería haber existido hace 3 años — Chat, agentes, correo, calendario, investigación, voz e imágenes en un solo lugar
Todas las afirmaciones provienen de políticas de privacidad oficiales, términos de servicio, documentos judiciales y documentación de los proveedores a fecha de febrero de 2026.


