Kan ik gewoon de gratis versie van ChatGPT of Claude gebruiken?
Het is de meest redelijke vraag die iemand stelt voordat hij voor een AI-tool gaat betalen.
De gratis versies zijn goed. Ze beantwoorden bijna alles. Dus voordat je je aanmeldt voor iets betaalds, is de eerlijke vraag: heb ik echt meer nodig dan dat?
We wilden je een echt antwoord geven in plaats van een eng antwoord, dus zijn we gaan zitten en hebben we het daadwerkelijke privacybeleid van OpenAI (ChatGPT) en Anthropic (Claude) gelezen. Allebei. Van kaft tot kaft.
Hier is de eerlijke versie.
Wat de gratis versies daadwerkelijk bewaren
Laten we ons gewoon houden aan wat het beleid zegt, in begrijpelijke taal.
Wanneer je de gratis versie van ChatGPT gebruikt, bewaart OpenAI:
- Alles wat je typt, plus alle bestanden, afbeeldingen, audio of video die je uploadt.
- Je naam, e-mailadres, accountgegevens en alle profielgegevens.
- Je IP-adres, browser, apparaat, tijdzone en hoe je het product gebruikt.
- Je algemene locatie op basis van je IP. Ook precieze locatie, als je die aanzet.
- Je contacten, als je die ooit koppelt, inclusief welke van je contacten ook de service gebruiken.
Wanneer je de gratis versie van Claude gebruikt, bewaart Anthropic:
- Elke prompt en elk antwoord. Het beleid is duidelijk: als je persoonlijke gegevens in een prompt opneemt, worden die verzameld, en kunnen ze ook in het antwoord verschijnen.
- Je naam, e-mailadres, telefoonnummer, betaalgegevens als je ooit upgradet.
- Je IP, apparaat, browser, locatie afgeleid van je IP, en hoe je het product gebruikt.
- Het hele gesprek als je ooit op duim omhoog of duim omlaag klikt. Dat wordt opgeslagen als feedback.
Dus zelfs met een zorgvuldige zwarte stift door een paar woorden, worden de meeste metadata rond je bericht alsnog verzameld, bij beide producten, in de gratis versie.
"Wordt mijn gesprek gebruikt om de AI te trainen?"
Bij zowel ChatGPT als Claude is de standaardinstelling van de gratis versie ja. Er is een opt-out. Het is een instelling die je zelf moet vinden en uitschakelen.
Dat betekent dat de meeste mensen, die nooit de privacy-instellingen hebben geopend, het volgende model trainen met hun werk. Met hun concepten. Met de vraag die ze laat in de avond stelden.
Dit is geen mening van Wysor. Het is het beleid.
OpenAI zegt dat het Content gebruikt "om onze Diensten te verbeteren en te ontwikkelen en onderzoek te doen, bijvoorbeeld om nieuwe functies te ontwikkelen", en vermeldt expliciet het trainen van de modellen die ChatGPT aandrijven, met een opt-out.
Anthropic zegt dat het "je Inputs en Outputs kan gebruiken om onze modellen te trainen en onze Diensten te verbeteren, tenzij je je afmeldt via je accountinstellingen". Het merkt ook twee gevallen op waarin de opt-out niet van toepassing is: alles wat is gemarkeerd voor veiligheidsbeoordeling, en alles wat je als feedback hebt ingediend.
Dus wat je ook plakt in een gratis account met standaardinstellingen, het is vrij spel voor training.
"Hoe zit het met Tijdelijke Chats?"
ChatGPT heeft een Tijdelijke Chats-modus. Het lijkt het voor de hand liggende antwoord: niets opgeslagen in je geschiedenis, niets gebruikt voor training. Veel mensen die om privacy geven, gebruiken het juist voor dit soort zaken.
Het is beter dan een normale chat. Het is niet de gum die de meeste mensen veronderstellen.
Het beleid van OpenAI zelf zegt dat Tijdelijke Chats "automatisch worden verwijderd binnen 30 dagen (tenzij we ze om veiligheids- of juridische redenen moeten bewaren)". De chat staat eerst tot 30 dagen op hun servers.
Dus in 2025, toen een Amerikaanse federale rechtbank OpenAI beval om in feite alle ChatGPT-gesprekken te bewaren als bewijs in een onverwante rechtszaak, omvatte dat bevel ook chats waarvan gebruikers dachten dat ze tijdelijk waren. Reguliere gebruikers waren geen partij in de zaak. Hun gegevens werden toch bewaard.
De tijdelijke modus is een nuttige functie. Het is niet hetzelfde als dat het bericht nooit heeft bestaan.
"Lost upgraden naar Plus of Pro hier iets van op?"
Meestal niet. Het privacybeleid voor de gratis versie, ChatGPT Plus en ChatGPT Pro is hetzelfde consumentenbeleid. Hetzelfde geldt voor Claude.ai gratis en Claude Pro. Betalen geeft je meer modeltoegang, meer gebruik, meer functies. Het verplaatst je niet naar een ander regelboek.
Het regelboek verandert pas wanneer een bedrijf een enterprise-abonnement koopt, een overeenkomst tekent en door inkoopprocedures gaat. Dan gelden andere voorwaarden. Dat is het deel dat de meeste reguliere gebruikers niet zien, en dat is het deel dat ertoe doet.
"Wat als ik gewoon de gevoelige stukjes anonimiseer?"
Een veelvoorkomende oplossing. Het salaris zwart maken, de bedrijfsnaam vervangen, en dan plakken. Vier redenen waarom het minder werkt dan je zou hopen.
Anonimiseren moet elke keer perfect zijn. Mis je één regel, laat je een naam in een voettekst staan, dan staat dat stukje nu op een server die jij niet beheert. Geen ongedaan maken. En het staat daar niet alleen, het zit gekoppeld aan je account, verbonden met elk ander bericht dat je ooit hebt verzonden.
De vraag verraadt de anonimisering. "Is dit non-concurrentiebeding afdwingbaar in Californië voor een senior engineer die boven de standaarddrempel verdient?" Je hebt je salaris niet getypt, maar je hebt het model net je rol, je staat en het feit dat je boven een specifiek bedrag verdient verteld. Je naam, je IP, je adres, je apparaat en de rest van je berichtgeschiedenis hangen al aan dat profiel. De anonimisering is cosmetisch, het beeld is er al.
Foto's dragen hun eigen bekentenis met zich mee. Wanneer je een foto uploadt, draagt het bestand meestal metadata met zich mee. EXIF-gegevens: GPS-coördinaten van waar de foto is genomen, het exacte tijdstempel, het merk en serienummer van de camera of telefoon. Dit zijn dezelfde metadata die rechtshandhaving en forensische teams gebruiken om iemand op een plek te plaatsen. De meeste mensen halen ze nooit weg voordat ze uploaden. De zichtbare inhoud van de afbeelding is wat je hebt geanonimiseerd. De onzichtbare inhoud is volledig intact.
Opgeslagen betekent niet verzegeld. Gesprekken staan in systemen waar veiligheidsbeoordelaars, trainingspijplijnen en engineers ze kunnen openen. De helppagina van Google's Gemini vertelt gebruikers direct: "voer alstublieft geen vertrouwelijke informatie in die je niet door een beoordelaar gezien wilt hebben."
Anonimiseren is prima voor zaken met lage inzet. Het is niet de bescherming die de meeste mensen denken zodra wat je plakt er echt toe doet.
Waar Wysor staat
We wilden niet anonimiseren en hopen. We wilden een tool die we gewoon konden gebruiken.
Dus hebben we Wysor gebouwd bovenop dezelfde modellen die je elders gratis zou gebruiken. Claude. GPT-5. Gemini. Perplexity. Open-source. Het verschil zit in de overeenkomst eronder.
- Je gesprekken worden niet gebruikt om enig model te trainen. Nooit. Niet in de gratis versie, niet in de betaalde. Het staat in ons contract met elke aanbieder, niet als instelling in je account.
- We gebruiken standaard Zero Data Retention (ZDR) bij de meeste aanbieders waarheen we routeren. De aanbieder verwerkt je bericht, geeft het antwoord terug en verwijdert het verzoek en het antwoord uit hun infrastructuur. Geen venster van 30 dagen. Geen chatgeschiedenis op andermans server.
- Ingebouwd onderzoek in juridische en medische databanken. Het soort werk dat je in die domeinen doet, een contractbepaling, een interactie tussen medicijnen, een zaakopzoeking, is precies het soort werk dat je niet op andermans server wilt opslaan. Bij Wysor is dat ook niet zo.
- Veel van onze modellen draaien op servers die in de EU worden gehost. Je bericht wordt in Europa beantwoord en je gegevens blijven daar.
- In de iOS-app gebeurt spraaktranscriptie op je telefoon. De audio verlaat hem nooit.
Je hoeft een contract niet te anonimiseren voordat je het in Wysor plakt, want het contract wordt niet bewaard. Je hebt ook geen inkoopafdeling nodig om dit alles te krijgen. Je meldt je aan en dat is de standaard.
In één oogopslag
| ChatGPT (gratis) | Claude (gratis) | Wysor | |
|---|---|---|---|
| Je gesprekken worden bewaard | Ja, totdat je ze verwijdert | Ja, totdat je ze verwijdert | Zero data retention bij de meeste aanbieders, standaard |
| Gebruikt om het model te trainen | Standaard aan, opt-out beschikbaar | Standaard aan, opt-out beschikbaar | Nooit, contractueel |
| Verwijdering | Tot 30 dagen, langer indien wettelijk vereist | Tot 30 dagen vanuit de back-end | Aanbieder verwijdert direct onder ZDR voor de meeste modellen |
| Waar je gegevens worden verwerkt | VS en andere landen | VS, met EU-overdrachtsovereenkomsten | In de EU gehost voor veel modellen |
| Spraaknotities | Opgeslagen bij de chat | Verzonden naar servers | Op het apparaat zelf op iOS |
| Wat verandert er als je betaalt | Functies. Privacy-houding blijft gelijk | Functies. Privacy-houding blijft gelijk | Dezelfde privacy in gratis en betaald |
Dus, kun je gewoon de gratis versie gebruiken?
Voor alledaagse vragen, ja. Er is niets mis mee om een gratis tool te gebruiken om een gratis-tool-vraag te stellen.
De reden dat we Wysor hebben gebouwd, is dat bijna niemand AI alleen voor gratis-tool-vragen gebruikt. Zodra je het een paar weken hebt geprobeerd, gaat het contract erin. De medische vraag gaat erin. De prijsstrategie gaat erin. Het ding dat je nog niemand hebt verteld, gaat erin.
Een zwarte stift bij binnenkomst is geen slecht instinct. Het is alleen niet de bescherming die de meeste mensen denken. De bescherming zit in wat het bedrijf mag doen met wat je hebt verzonden, en dat wordt bepaald door het beleid, niet door de anonimisering.
Als je hier niet elke keer over na wilt hoeven denken wanneer je een AI-tool opent, is dat het gat dat we met Wysor hebben gevuld.
Lees verder
- Je AI weet meer dan je denkt: een privacy-vergelijking van Claude, ChatGPT en Gemini
- Volledige privacy: jouw data verlaat nooit jouw controle
- Je spraaknotities worden naar Apple verzonden. De onze niet.
- Shadow AI: wanneer je werknemers ChatGPT achter je rug om gebruiken
Gebaseerd op het consumenten-privacybeleid van OpenAI en het consumenten-privacybeleid van Anthropic (van kracht 12 januari 2026), in zijn geheel gelezen vanaf april 2026.



