¿Puedo simplemente usar la versión gratuita de ChatGPT o Claude?
Es la pregunta más razonable que cualquiera se hace antes de pagar por una herramienta de IA.
Las versiones gratuitas son buenas. Responden a casi todo. Así que, antes de suscribirte a nada de pago, la pregunta honesta es: ¿de verdad necesito algo más que esto?
Queríamos darte una respuesta real en lugar de una alarmista, así que nos sentamos y leímos las políticas de privacidad reales de OpenAI (ChatGPT) y Anthropic (Claude). Las dos. De principio a fin.
Esta es la versión honesta.
Qué guardan en realidad las versiones gratuitas
Vamos a ceñirnos a lo que dicen las políticas, en cristiano.
Cuando usas la versión gratuita de ChatGPT, OpenAI guarda:
- Todo lo que escribes, además de cualquier archivo, imagen, audio o vídeo que subas.
- Tu nombre, correo, datos de la cuenta y cualquier detalle del perfil.
- Tu dirección IP, navegador, dispositivo, zona horaria y cómo usas el producto.
- Tu ubicación general a partir de tu IP. También la ubicación precisa, si la activas.
- Tus contactos, si llegas a conectarlos, incluyendo cuáles de tus contactos también usan el servicio.
Cuando usas la versión gratuita de Claude, Anthropic guarda:
- Cada prompt y cada respuesta. La política es directa: si incluyes datos personales en un prompt, esos datos se recopilan, y pueden aparecer también en la respuesta.
- Tu nombre, correo, número de teléfono y datos de pago si llegas a actualizar el plan.
- Tu IP, dispositivo, navegador, ubicación derivada de la IP y cómo usas el producto.
- La conversación entera si pulsas pulgar arriba o pulgar abajo. Eso queda almacenado como feedback.
Así que, aunque taches con cuidado un par de palabras, la mayor parte de los metadatos alrededor de tu mensaje se recopilan igualmente, en ambos productos, en el plan gratuito.
"¿Mi conversación se usará para entrenar a la IA?"
Tanto en ChatGPT como en Claude, el ajuste por defecto en la versión gratuita es que sí. Hay una opción para desactivarlo. Es un ajuste que tienes que encontrar y desactivar tú mismo.
Eso significa que la mayoría de las personas, que nunca han abierto los ajustes de privacidad, están entrenando el siguiente modelo con su trabajo. Con sus borradores. Con la pregunta que hicieron a altas horas de la noche.
Esta parte no es una opinión de Wysor. Son las políticas.
OpenAI dice que usa el Contenido "para mejorar y desarrollar nuestros Servicios y realizar investigaciones, por ejemplo para desarrollar nuevas funcionalidades", y menciona explícitamente entrenar los modelos que dan vida a ChatGPT, con opción a desactivarlo.
Anthropic dice que "puede usar tus Entradas y Salidas para entrenar nuestros modelos y mejorar nuestros Servicios, salvo que lo desactives en los ajustes de tu cuenta". También señala dos casos en los que la opción de desactivarlo no aplica: cualquier cosa marcada para revisión de seguridad y cualquier cosa que hayas enviado como feedback.
Así que, lo que pegues en una cuenta gratuita con la configuración por defecto, queda disponible para el entrenamiento.
"¿Y los Chats Temporales?"
ChatGPT tiene un modo de Chats Temporales. Parece la respuesta obvia: nada se guarda en tu historial, nada se usa para entrenar. Mucha gente preocupada por la privacidad lo usa exactamente para esto.
Es mejor que un chat normal. No es la goma de borrar que la mayoría de la gente asume.
La propia política de OpenAI dice que los Chats Temporales "se eliminarán automáticamente en un plazo de 30 días (a menos que tengamos que conservarlos por motivos de seguridad o legales)". Es decir, el chat sí se queda en sus servidores hasta 30 días primero.
Por eso, en 2025, cuando un tribunal federal de Estados Unidos ordenó a OpenAI conservar prácticamente todas las conversaciones de ChatGPT como prueba en un litigio no relacionado, esa orden barrió también chats que los usuarios creían efímeros. Los usuarios normales no eran parte del caso. Sus datos quedaron retenidos igualmente.
El modo temporal es una función útil. No es lo mismo que el mensaje no haya existido nunca.
"¿Pasarme a Plus o Pro arregla algo de esto?"
Casi nada. Las políticas de privacidad de la versión gratuita, ChatGPT Plus y ChatGPT Pro son la misma política de consumidor. Lo mismo ocurre con Claude.ai gratuito y Claude Pro. Pagar te da más acceso a modelos, más uso, más funciones. No te traslada a otro reglamento.
El reglamento solo cambia cuando una empresa contrata un plan empresarial, firma un acuerdo y pasa por compras. Entonces se aplica un conjunto de términos distinto. Esa es la parte que la mayoría de los usuarios normales no ven, y es la parte que importa.
"¿Y si simplemente tacho los datos sensibles?"
Un atajo común. Tachas el sueldo, cambias el nombre de la empresa y luego pegas. Cuatro razones por las que funciona menos de lo que esperarías.
Tachar tiene que ser perfecto cada vez. Se te escapa una línea, dejas un nombre en un pie de página, y ese fragmento ya está en un servidor que no controlas. Sin deshacer. Y no está ahí solo, está vinculado a tu cuenta, conectado con cada otro mensaje que has enviado.
La pregunta delata lo que tachaste. "¿Es ejecutable esta cláusula de no competencia en California para una ingeniera senior con un sueldo por encima del umbral estándar?". No escribiste tu sueldo, pero acabas de decirle al modelo tu rol, tu estado y que ganas por encima de una cifra concreta. Tu nombre, tu IP, tu dirección, tu dispositivo y el resto de tu historial de mensajes ya están atados a ese perfil. El tachado es cosmético, el cuadro completo ya está ahí.
Las imágenes llevan su propia confesión. Cuando subes una foto, el archivo suele llevar metadatos consigo. Datos EXIF: coordenadas GPS de dónde se hizo la foto, la hora exacta, la marca y el número de serie de la cámara o el teléfono. Son los mismos metadatos que la policía y los equipos forenses usan para situar a una persona en un lugar. La mayoría de la gente no los elimina antes de subir la imagen. El contenido visible de la imagen es lo que tachaste. El contenido invisible queda intacto.
Almacenado no significa sellado. Las conversaciones viven en sistemas donde revisores de seguridad, pipelines de entrenamiento e ingenieros pueden abrirlas. La página de ayuda de Gemini, de Google, lo dice claramente a sus usuarios: "por favor, no introduzcas información confidencial que no quieras que vea un revisor."
Tachar está bien para cosas de poco riesgo. No es la protección que la mayoría de la gente cree, en cuanto lo que pegas empieza a importar de verdad.
Dónde se sitúa Wysor
No queríamos tachar y cruzar los dedos. Queríamos una herramienta que pudiéramos usar sin más.
Por eso construimos Wysor sobre los mismos modelos que usarías gratis en otros sitios. Claude. GPT-5. Gemini. Perplexity. Open-source. La diferencia está en el acuerdo que hay debajo.
- Tus conversaciones no se usan para entrenar ningún modelo. Nunca. Ni en gratis, ni en pago. Está en nuestro contrato con cada proveedor, no en un ajuste de tu cuenta.
- Usamos Zero Data Retention (ZDR, retención cero de datos) por defecto con la mayoría de los proveedores a los que enrutamos. El proveedor procesa tu mensaje, devuelve la respuesta y elimina la petición y la respuesta de su infraestructura. Sin ventana de 30 días. Sin historial de chat alojado en el servidor de otra persona.
- Investigación integrada en bases de datos legales y médicas. El tipo de trabajo que haces en esos ámbitos, una cláusula contractual, una interacción farmacológica, la búsqueda de un caso, es exactamente el tipo de trabajo que no quieres que quede almacenado en el servidor de otra persona. Con Wysor no lo está.
- Muchos de nuestros modelos se ejecutan en servidores alojados en la UE. Tu mensaje se responde en Europa y tus datos se quedan ahí.
- En la app de iOS, la transcripción de voz ocurre en tu propio teléfono. El audio nunca sale de él.
No necesitas tachar un contrato antes de pegarlo en Wysor, porque el contrato no se conserva. Tampoco necesitas un departamento de compras para conseguir nada de esto. Te registras y eso es lo que hay por defecto.
De un vistazo
| ChatGPT (gratis) | Claude (gratis) | Wysor | |
|---|---|---|---|
| Tus conversaciones se conservan | Sí, hasta que las borras | Sí, hasta que las borras | Retención cero de datos con la mayoría de proveedores, por defecto |
| Se usan para entrenar el modelo | Activado por defecto, se puede desactivar | Activado por defecto, se puede desactivar | Nunca, por contrato |
| Eliminación | Hasta 30 días, más si la ley lo exige | Hasta 30 días desde el back-end | El proveedor las elimina al instante con ZDR para la mayoría de los modelos |
| Dónde se procesan tus datos | Estados Unidos y otros países | Estados Unidos, con acuerdos de transferencia desde la UE | Alojados en la UE para muchos modelos |
| Notas de voz | Almacenadas con el chat | Enviadas a servidores | En el dispositivo, en iOS |
| Qué cambia si pagas | Funciones. La postura de privacidad es la misma | Funciones. La postura de privacidad es la misma | La misma privacidad en gratis y de pago |
Entonces, ¿puedes usar simplemente la versión gratuita?
Para preguntas del día a día, sí. No hay nada de malo en usar una herramienta gratuita para hacer una pregunta de herramienta gratuita.
La razón por la que construimos Wysor es que casi nadie usa la IA solo para preguntas de herramienta gratuita. En cuanto la pruebas unas semanas, el contrato entra. La consulta médica entra. La estrategia de precios entra. Eso que aún no le has contado a nadie entra.
El rotulador negro a la entrada no es un mal instinto. Solo que no es la protección que la mayoría de la gente cree. La protección está en lo que la empresa puede hacer con lo que enviaste, y eso lo marca la política, no el tachado.
Si prefieres no tener que pensar en esto cada vez que abres una herramienta de IA, ese es el hueco que construimos Wysor para llenar.
Sigue leyendo
- Tu IA sabe más de lo que crees: una comparativa de privacidad entre Claude, ChatGPT y Gemini
- Privacidad completa: tus datos nunca salen de tu control
- Tus notas de voz se envían a Apple. Las nuestras no.
- Shadow AI: cuando tus empleados usan ChatGPT a tus espaldas
Basado en la política de privacidad para consumidores de OpenAI y la política de privacidad para consumidores de Anthropic (en vigor desde el 12 de enero de 2026), leídas en su totalidad en abril de 2026.



