Posso usar só a versão gratuita do ChatGPT ou Claude?
É a pergunta mais razoável que alguém faz antes de pagar por uma ferramenta de IA.
As versões gratuitas são boas. Respondem quase tudo. Então, antes de assinar qualquer plano pago, a pergunta honesta é: eu realmente preciso de mais do que isso?
Quisemos te dar uma resposta real, e não uma resposta amedrontadora, então sentamos e lemos as políticas de privacidade reais da OpenAI (ChatGPT) e da Anthropic (Claude). As duas. Do começo ao fim.
Aqui está a versão honesta.
O que as versões gratuitas realmente guardam
Vamos ficar com o que as políticas dizem, em linguagem simples.
Quando você usa a versão gratuita do ChatGPT, a OpenAI guarda:
- Tudo o que você digita, além de quaisquer arquivos, imagens, áudios ou vídeos que você envia.
- Seu nome, e-mail, dados da conta e quaisquer detalhes de perfil.
- Seu endereço IP, navegador, dispositivo, fuso horário e como você usa o produto.
- Sua localização geral a partir do IP. E também a localização precisa, se você ativar essa opção.
- Seus contatos, caso você os conecte algum dia, incluindo quais dos seus contatos também usam o serviço.
Quando você usa a versão gratuita do Claude, a Anthropic guarda:
- Cada prompt e cada resposta. A política é direta: se você incluir dados pessoais em um prompt, isso é coletado e pode aparecer também na resposta.
- Seu nome, e-mail, número de telefone e dados de pagamento, caso você venha a fazer upgrade.
- Seu IP, dispositivo, navegador, localização derivada do IP e como você usa o produto.
- A conversa inteira, sempre que você clica em joinha pra cima ou pra baixo. Isso fica guardado como feedback.
Então, mesmo com algumas palavras tachadas com cuidado, a maior parte dos metadados em volta da sua mensagem é coletada de qualquer jeito, nos dois produtos, no plano gratuito.
"Minha conversa será usada para treinar a IA?"
Tanto no ChatGPT quanto no Claude, a configuração padrão da versão gratuita é sim. Existe uma opção de desativar (opt-out). É um ajuste que você precisa encontrar e desligar por conta própria.
Isso significa que a maioria das pessoas, que nunca abriu as configurações de privacidade, está treinando o próximo modelo com o trabalho delas. Com os rascunhos delas. Com a pergunta que fizeram tarde da noite.
Essa parte não é uma opinião da Wysor. É o que está nas políticas.
A OpenAI diz que usa o Conteúdo "para melhorar e desenvolver nossos Serviços e conduzir pesquisa, por exemplo para desenvolver novas funcionalidades", e menciona explicitamente o treinamento dos modelos que rodam o ChatGPT, com opção de desativar.
A Anthropic diz que "pode usar suas Entradas e Saídas para treinar nossos modelos e melhorar nossos Serviços, a menos que você desative essa opção nas configurações da sua conta". Também aponta dois casos em que a desativação não se aplica: qualquer coisa marcada para revisão de segurança e qualquer coisa que você tenha enviado como feedback.
Então, qualquer coisa que você cole, em uma conta gratuita com as configurações padrão, é candidata para treinamento.
"E os Chats Temporários?"
O ChatGPT tem um modo de Chats Temporários. Parece a resposta óbvia: nada salvo no seu histórico, nada usado para treinamento. Muita gente que se importa com privacidade usa esse modo justamente para esse tipo de coisa.
É melhor do que um chat normal. Mas não é a borracha que a maioria das pessoas imagina.
A própria política da OpenAI diz que os Chats Temporários "serão automaticamente excluídos em até 30 dias (a menos que precisemos retê-los por motivos de segurança ou legais)". O chat realmente fica nos servidores deles por até 30 dias antes disso.
Por isso, em 2025, quando um tribunal federal dos EUA ordenou que a OpenAI preservasse essencialmente todas as conversas do ChatGPT como prova em uma ação judicial não relacionada, essa ordem incluiu chats que os usuários achavam que eram efêmeros. Usuários comuns não eram parte do processo. Os dados deles foram retidos do mesmo jeito.
O modo temporário é uma funcionalidade útil. Não é a mesma coisa que a mensagem nunca ter existido.
"Fazer upgrade para o Plus ou Pro resolve isso?"
Em geral, não. As políticas de privacidade da versão gratuita, do ChatGPT Plus e do ChatGPT Pro são a mesma política para o consumidor. O mesmo vale para o Claude.ai gratuito e o Claude Pro. Pagar te dá mais acesso a modelos, mais uso, mais funcionalidades. Não te coloca em um livro de regras diferente.
O livro de regras só muda quando uma empresa compra um plano corporativo, assina um acordo e passa pelo processo de compras. Aí um conjunto diferente de termos se aplica. Essa é a parte que a maioria dos usuários comuns não enxerga, e é a parte que importa.
"E se eu apenas censurar as partes sensíveis?"
Uma solução comum. Apague o salário, troque o nome da empresa e cole. Quatro motivos pelos quais isso funciona menos do que você gostaria.
A censura precisa ser perfeita toda vez. Esquece uma linha, deixa um nome no rodapé, e aquele pedaço já está em um servidor que você não controla. Sem desfazer. E não fica ali sozinho, fica anexado à sua conta, ligado a todas as outras mensagens que você já mandou.
A pergunta entrega a censura. "Essa cláusula de não concorrência é válida na Califórnia para um engenheiro sênior pago acima do limite padrão?" Você não digitou seu salário, mas acabou de contar para o modelo o seu cargo, o seu estado e que você ganha acima de um número específico. Seu nome, seu IP, seu endereço, seu dispositivo e o resto do seu histórico de mensagens já estão anexados a esse perfil. A censura é cosmética, o quadro inteiro já está montado.
Imagens carregam sua própria confissão. Quando você envia uma foto, o arquivo geralmente vem com metadados junto. Dados EXIF: coordenadas GPS de onde a foto foi tirada, o horário exato, a marca e o número de série da câmera ou do celular. São os mesmos metadados que polícias e equipes forenses usam para colocar uma pessoa em um lugar. A maioria das pessoas nunca remove isso antes de enviar. O conteúdo visível da imagem é o que você censurou. O conteúdo invisível continua intacto.
Armazenado não significa lacrado. As conversas ficam em sistemas onde revisores de segurança, pipelines de treinamento e engenheiros podem abri-las. A página de ajuda do Gemini, do Google, diz aos usuários diretamente: "por favor, não insira informações confidenciais que você não gostaria que um revisor visse."
Censurar tudo bem para coisas de baixo risco. Não é a proteção que a maioria das pessoas pensa que é, no momento em que o que você está colando realmente importa.
Onde a Wysor entra
Nós não queríamos censurar e torcer. Queríamos uma ferramenta que pudesse ser usada sem mais.
Então construímos a Wysor sobre os mesmos modelos que você usaria de graça em outros lugares. Claude. GPT-5. Gemini. Perplexity. Open-source. A diferença está no acordo por trás.
- Suas conversas não são usadas para treinar modelo nenhum. Nunca. Nem no plano gratuito, nem no pago. Está no nosso contrato com cada provedor, não em uma configuração da sua conta.
- Usamos Zero Data Retention (ZDR) por padrão com a maioria dos provedores para os quais roteamos. O provedor processa sua mensagem, devolve a resposta e apaga a requisição e a resposta da infraestrutura dele. Sem janela de 30 dias. Sem histórico de chat parado no servidor de outra pessoa.
- Pesquisa integrada em bancos de dados jurídicos e médicos. O tipo de trabalho que você faz nessas áreas, uma cláusula contratual, uma interação medicamentosa, uma consulta de jurisprudência, é exatamente o tipo de trabalho que você não quer guardado no servidor de outra pessoa. Com a Wysor, não fica.
- Muitos dos nossos modelos rodam em servidores hospedados na Europa. Sua mensagem é respondida na Europa e seus dados ficam lá.
- No app para iOS, a transcrição de voz acontece no seu celular. O áudio nunca sai dele.
Você não precisa censurar um contrato antes de colar na Wysor, porque o contrato não está sendo guardado. Você também não precisa de um departamento de compras para ter nada disso. Você se cadastra, e isso é o padrão.
Em resumo
| ChatGPT (gratuito) | Claude (gratuito) | Wysor | |
|---|---|---|---|
| Suas conversas são guardadas | Sim, até você apagar | Sim, até você apagar | Zero retenção de dados com a maioria dos provedores, por padrão |
| Usadas para treinar o modelo | Ativado por padrão, com opção de desativar | Ativado por padrão, com opção de desativar | Nunca, por contrato |
| Exclusão | Até 30 dias, mais tempo se exigido por lei | Até 30 dias do back-end | O provedor apaga imediatamente sob ZDR para a maioria dos modelos |
| Onde seus dados são processados | EUA e outros países | EUA, com acordos de transferência para a UE | Hospedados na UE para muitos modelos |
| Notas de voz | Guardadas com o chat | Enviadas para servidores | No próprio dispositivo, no iOS |
| O que muda se você paga | Funcionalidades. A postura de privacidade é a mesma | Funcionalidades. A postura de privacidade é a mesma | Mesma privacidade no gratuito e no pago |
Então, dá para usar só a versão gratuita?
Para perguntas do dia a dia, dá. Não há nada de errado em usar uma ferramenta gratuita para fazer uma pergunta de ferramenta gratuita.
O motivo de termos construído a Wysor é que quase ninguém usa IA só para perguntas de ferramenta gratuita. Depois de algumas semanas de uso, o contrato entra. A pergunta médica entra. A estratégia de preços entra. Aquela coisa que você ainda não contou para ninguém entra.
Um marcador preto na entrada não é um instinto ruim. Só não é a proteção que a maioria das pessoas acredita que é. A proteção está no que a empresa tem permissão de fazer com o que você enviou, e isso é definido pela política, não pela censura.
Se você prefere não ter que pensar nisso toda vez que abre uma ferramenta de IA, é essa a lacuna que construímos a Wysor para preencher.
Experimente a Wysor gratuitamente →
Continue lendo
- Sua IA sabe mais do que você imagina: uma comparação de privacidade entre Claude, ChatGPT e Gemini
- Privacidade completa: seus dados nunca saem do seu controle
- Suas notas de voz estão sendo enviadas para a Apple. As nossas, não.
- Shadow AI: quando seus funcionários usam o ChatGPT pelas suas costas
Baseado na política de privacidade para o consumidor da OpenAI e na política de privacidade para o consumidor da Anthropic (em vigor desde 12 de janeiro de 2026), lidas na íntegra em abril de 2026.



