Je AI weet meer dan je denkt: een privacyvergelijking van Claude, ChatGPT en Gemini
Probeer dit voordat je verder leest. Open ChatGPT en typ: "Wat is het meest persoonlijke dat ik je ooit heb gevraagd?"
Het antwoord zal specifieker zijn dan je had verwacht. Intiemer. Onthullender. Misschien weet je niet eens meer dat je het hebt getypt. Het model wel.
Want de AI heeft alles. Het contract met je salaris erop. Het spraakmemo over die huiduitslag. Het moeilijke bericht dat je om elf uur 's avonds voor je baas opstelde. De vraag die je te gênant vond om in Google te zetten.
Dus hier is de ongemakkelijke vraag die niemand op de prijspagina zet. Waar gaat dat allemaal naartoe?
Wij lazen het beleid zodat jij het niet hoeft te doen. Wat we vonden, is de reden dat Wysor bestaat.
Scène 1: het contract dat je erin plakte
Je zet een contract van 14 pagina's in ChatGPT. Je markeert het salaris, het concurrentiebeding, die vreemde clausule over IP.
Op een consumentenabonnement blijft dat gesprek op de servers van OpenAI staan zolang je account actief is. Je klikt op "verwijderen" en het duurt tot 30 dagen voordat het hun systemen daadwerkelijk verlaat. In sommige gevallen verlaat het die helemaal niet: in 2025 verplichtte een gerechtelijk bevel in NYT v. OpenAI OpenAI om gespreksdata te bewaren, inclusief gesprekken die gebruikers hadden verwijderd.
Dezelfde scène bij Claude. Standaard 30 dagen bewaard. Als de trainingsschakelaar van Anthropic aan staat (en sinds oktober 2025 is dat standaard opt-in, wat betekent dat iedereen die zonder lezen door de prompt klikte ja zei), kan dat gesprek tot vijf jaar worden bewaard.
Bij Gemini tot 18 maanden. Zet "Activiteit bewaren" uit en Google houdt de data nog minstens 72 uur vast.
Wat "bewaard" eigenlijk betekent
Bewaard betekent niet verzegeld in een kluis. Bewaard betekent dat de aanbieder het kan openen, doorzoeken, indexeren, analyseren en overhandigen aan de systemen en mensen aan wie zij toegang willen geven. Hun reviewteam kan het openen. Hun trainingspipelines kunnen het opnemen. Hun engineers kunnen het opvragen tijdens debugging.
Of een bestand versleuteld op schijf staat, is een vraag over aanvallers van buitenaf. Dat is niet de vraag die telt voor jouw contract. De vraag die telt is wie binnen het bedrijf, en welke van hun interne systemen, er aan kan komen. Op een consumentenabonnement is het antwoord: nogal wat van hen.
Het gerechtelijk bevel was niet uniek voor OpenAI
Een snelle samenvatting, want de meeste mensen hebben hier nooit van gehoord. In 2023 klaagde de New York Times OpenAI aan vanwege het gebruik van Times-artikelen om zijn modellen te trainen. Medio 2025, tijdens die lopende zaak, droeg een federale rechtbank OpenAI op om in wezen alle ChatGPT-gebruikersgesprekken te bewaren als mogelijk bewijs, inclusief gesprekken die gebruikers al hadden verwijderd. Gewone gebruikers waren geen partij in de rechtszaak. Hun data werd toch bewaard.
Dat bevel kwam toevallig als eerste bij OpenAI terecht, maar het principe geldt voor elke aanbieder die je gesprekken bewaart. Anthropic, Google en elke andere aanbieder die gebruikersdata behoudt, is onderworpen aan dezelfde soort juridische procedure. Een bewaarbevel, een dagvaarding, een verzoek om bewijsvergaring. Elke rechtbank in elk rechtsgebied waar het bedrijf opereert, kan het dwingen om records die het al bezit te produceren of te bewaren.
De regel is simpel. Als de data bestaat, kan die worden opgevraagd. De enige echte verdediging is de data in eerste instantie niet vasthouden.
Jouw contract is geen zoekopdracht. Het is een document met jouw naam, jouw salaris en jouw werkgever erop. En op dit moment staat het op iemand anders zijn machine.
Met zero data retention wordt hetzelfde contract verwerkt, beantwoord en weg. Er wordt geen kopie naar schijf geschreven. Geen medewerker kan het later openen, want later bestaat niet. Geen rechtbank kan de productie ervan afdwingen, want er is niets om te produceren. Jouw data is veilig omdat het nooit is opgeslagen.
Scène 2: jouw idee is het product
Google's eigen Gemini-helppagina is expliciet: "Voer geen vertrouwelijke informatie in die je niet zou willen dat een reviewer ziet of die Google zou willen gebruiken om onze diensten te verbeteren, inclusief machine-learningtechnologieën."
Dat is geen waarschuwing over het vangen van kwaadwillenden. Het is een erkenning dat de gesprekken die je met Gemini voert materiaal zijn voor menselijke beoordeling en productverbetering. Die beoordeelde gesprekken kunnen drie jaar worden bewaard.
Dit doet ertoe vanwege waar mensen AI echt voor gebruiken. Een nieuw idee. Een klantvoorstel. Een productlijn die nog niemand heeft aangekondigd. Een tekst die de wereld nog niet heeft gezien. Je plakt het in het model. Je brainstormt. Je verfijnt. Je beschrijft het ding dat je nog niet hebt uitgebracht.
Aan het einde van dat gesprek zit een bedrijf wiens business het is om te begrijpen wat mensen aan het bouwen zijn, waar ze om vragen en waar ze voor willen betalen. Hetzelfde bedrijf dat advertenties verkoopt, concurrerende tools verkoopt en zijn eigen AI-producten verkoopt. Jouw nog niet uitgebrachte idee is, in de meest letterlijke zin, waardevolle intelligence voor hen.
Aggregator-apps van derden vergroten de blootstelling. Een klein bedrijf verpakt meerdere modellen achter één interface, plaatst zijn eigen analytics en zijn eigen personeel tussen jou en de aanbieder, en krijgt toegang tot alles wat je indient. Het vertrouwensoppervlak verdubbelt. Het toezicht niet.
En niets van dit alles staat op zichzelf. De bedrijven achter de grootste AI-producten zijn dezelfde bedrijven die je al jaren over het web volgen. Hun advertentiepixels weten al welke sites je bezoekt, welke producten je overweegt en welke problemen je probeert op te lossen. Jouw AI-gesprekken aan dat profiel toevoegen is geen aparte privacyvraag. Het is hetzelfde profiel, met een veel rijkere feed.
We hebben Wysor gebouwd omdat het profiel niet rijker zou moeten worden. Lees hoe wij omgaan met tracking op onze eigen website.
Het risico is niet wat je bij de AI hebt afgereageerd. Het risico is het idee dat je erin plakte voordat je klaar was om het aan iemand te laten zien.
Scène 3: het spraakmemo
Je loopt en praat. Je vertelt je telefoon over een symptoom, een klant, een nare ruzie.
Dit is wat er daarna gebeurt, afhankelijk van op wiens knop je drukte:
ChatGPT bewaart de audio zolang de chat bestaat. Geen trainingsmateriaal, maar het is er wel.
Claude stuurt de audio naar de servers van Anthropic, verwijdert die binnen ongeveer 24 uur en draait de tekst-naar-spraak via ElevenLabs, een derde partij, zonder publiek zero-retention-arrangement tussen hen.
Gemini verwerkt het wakkermaakwoord lokaal maar stuurt het daadwerkelijke verzoek naar Google. Google heeft al $68M betaald om een rechtszaak over zijn omgang met spraakdata te schikken.
Siri bewaart op de server verwerkte transcripten tot twee jaar. Apple schikte zijn eigen spraakrechtszaak voor $95M nadat Siri werd geactiveerd terwijl niemand "Hey Siri" had gezegd.
Wysor Voice op de iOS-app transcribeert op het apparaat. De audio verlaat je telefoon nooit.
Scène 4: de rechtszaak die je niet zag aankomen
Februari 2026. Een zaak genaamd United States v. Heppner stelde vast dat je gesprekken met AI-assistenten niet worden beschermd door het verschoningsrecht tussen advocaat en cliënt, en ook geen werkproduct zijn.
De redenering van de rechtbank was eenvoudig: het beleid van aanbieders staat openbaarmaking aan autoriteiten toe en kan gebruik voor training toestaan. Er is geen redelijke verwachting van vertrouwelijkheid. Dus alles op een AI-consumentenabonnement is potentieel vatbaar voor bewijsvergaring in juridische procedures.
Lees dat nog eens. Het ding dat je aan ChatGPT vertelde is het ding dat een advocaat kan dagvaarden.
Wat "zero data retention" werkelijk betekent
Zero data retention (ZDR) is een contractuele afspraak met een AI-aanbieder die de levenscyclus van jouw gesprek op technisch niveau verandert.
Onder een normaal consumentenabonnement wordt elk bericht dat je verstuurt gelogd op de servers van de aanbieder. Het wordt dagen, maanden of jaren bewaard. Het kan in de wachtrij staan voor menselijke beoordeling. Het kan het volgende model voeden. Verwijdering is een proces dat later gebeurt, als het al gebeurt.
Onder zero data retention gebeurt niets daarvan. Jouw bericht bereikt de aanbieder. Het model produceert een antwoord. Het antwoord wordt aan jou teruggegeven. Op dat moment worden het verzoek en het antwoord weggegooid uit de infrastructuur van de aanbieder. Geen logs. Geen back-upkopieën. Geen bewaarde trainingsdata.
Geautomatiseerde veiligheidsclassifiers draaien nog steeds op het moment van het verzoek (elke grote aanbieder vereist dit, en wij ook, om te voorkomen dat het model wordt gebruikt voor ernstig misbruik), maar ze worden uitgevoerd op het live verzoek en maken daarna geen opgeslagen record van jouw gesprek.
Er valt later niets te dagvaarden, want er is niets bewaard. Er valt later niets te trainen, want de data bestaat niet één seconde nadat het antwoord is gegenereerd.
Dit is de bescherming waar grote ondernemingen voor betalen en inkoopovereenkomsten voor ondertekenen. Iedereen anders blijft achter op abonnementen waar bewaren de standaard is.
Dus wat is het verschil met Wysor?
We vragen je niet om een schakelaar te vertrouwen. Wij tekenen contracten.
Zero data retention is de standaard bij Wysor, niet de upgrade. Elke aanbieder waar we naartoe routeren (Claude, GPT-5, Gemini, Perplexity en elk open-source model dat we bieden) is verpakt in een aparte overeenkomst die bewaren op het technische minimum zet. Voor de meeste aanbieders is dat minimum nul. Jouw gesprek wordt verwerkt en is weg.
Wij trainen nooit op jouw data. Niet op gratis. Niet op betaald. Op geen enkel abonnement. Het staat in het contract, niet in een instelling die je moet onthouden om om te zetten.
Veel van onze modellen draaien op servers binnen de EU. Jouw bericht wordt beantwoord op Europese infrastructuur en jouw data verlaat de EU niet om te worden verwerkt. Je kunt op onze modellenpagina zien welke modellen in de EU worden gehost.
Op de iOS-app draait spraaktranscriptie op je apparaat.
En je hebt geen inkoopteam nodig om hier toegang toe te krijgen. Je meldt je aan.
In één oogopslag
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Standaard bewaartermijn | 30 dagen (tot 5 jaar als training aan staat) | Zolang account actief is | 18 maanden | Nul voor de meeste aanbieders |
| Training op jouw data | Opt-in, standaard aan | Standaard aan | Standaard aan | Nooit |
| Waar jouw data wordt verwerkt | VS (standaard consument) | VS (standaard consument) | VS (standaard consument) | EU voor veel modellen |
| Spraak | Audio naar servers, ~24u | Opgeslagen bij chat | Verstuurd naar Google | Op apparaat (iOS-app) |
| Hoe je het krijgt | $20/maand | $20/maand | $20/maand | Gratis abonnement werkt ook |
Wat dit echt betekent
Jouw AI kent je salaris, je symptomen en het ding dat je bang bent om aan je partner te vertellen. Het kent ook je nog niet uitgebrachte product, je prijzen, je klantstrategie en het idee dat niemand anders nog heeft gehoord. Niets daarvan is een functieprobleem. Al die dingen zijn een opslagprobleem.
Wysor beschermt beide. Jouw persoonlijke gesprekken blijven van jou. Jouw zakelijke gesprekken ook. Jouw nieuwe idee is geen materiaal voor iemand anders zijn trainingsronde. Jouw klantwerk is geen intelligence voor een bedrijf dat ook concurrerende tools verkoopt. Jouw prijzen zijn geen regel in de wachtrij van een reviewer.
We geven elke gebruiker, van een gratis account tot een volledig zakelijk abonnement, het soort privacybescherming waar voorheen een inkoopcyclus voor nodig was.
Verwijderen moet verwijderen betekenen. Spraak moet op je telefoon blijven. Jouw volgende idee moet van jou blijven.
Verder lezen
- Volledige privacy: jouw data verlaat jouw controle nooit
- Jouw spraakmemo's worden naar Apple gestuurd. De onze niet.
- Shadow AI: wanneer je werknemers ChatGPT gebruiken achter je rug om
- We hebben de AI-werkplek gebouwd die er 3 jaar geleden al had moeten zijn
Alle beweringen zijn afkomstig uit officiële privacybeleiden, servicevoorwaarden, gerechtelijke documenten en leveranciersdocumentatie per februari 2026.


