Je AI weet meer dan je denkt: een privacyvergelijking van Claude, ChatGPT en Gemini
Technology

Je AI weet meer dan je denkt: een privacyvergelijking van Claude, ChatGPT en Gemini

Elke dag plak je contracten, salarissen, medische vragen, juridische documenten en bedrijfsstrategieën in AI. Je dicteert spraaknotities. Je vertrouwt het meer dan de meeste van je collega's.

Maar wat gebeurt er met alles wat je het vertelt?

Wij hebben de privacybeleiden gelezen zodat jij dat niet hoeft. Dit is wat we vonden — en waarom het precies de reden is dat we Wysor hebben gebouwd.


Consumentenplannen en enterprise-plannen zijn verschillende producten

Claude Pro. ChatGPT Plus. Gemini Advanced. $20/maand betalen geeft je betere modellen en hogere gebruikslimieten, maar het dataverwerkingsbeleid bij consumentenplannen is grotendeels hetzelfde als bij gratis abonnementen.

Om contractuele privacybeschermingen te krijgen — verwerkersovereenkomsten, nul dataretentie, trainingsuitsluitingen — vereisen de meeste aanbieders een enterprise-contract. Dat betekent een langer inkoopproces en hogere prijzen.

Wysor geeft je die enterprise-beschermingen bij elk plan, inclusief gratis.


Hoe lang je gesprekken op hun servers liggen

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Standaard retentie30 dagen (of 5 jaar als training is ingeschakeld)Bewaard zolang het account actief is18 maandenMaximaal 30 dagen (OpenAI). Overige: nul.
Na verwijdering30 dagen voor verwijdering30 dagen voor verwijderingMinimaal 72 uurGeminimaliseerd via speciale verwerkersovereenkomsten.

Claude bewaart je gegevens standaard 30 dagen. In oktober 2025 maakte Anthropic training-opt-in de standaardinstelling — wat betekent dat als je niet reageerde op de prompt, je gesprekken mogelijk tot 5 jaar worden opgeslagen.

ChatGPT bewaart gesprekken zolang je account actief is. Na het verwijderen van een gesprek heeft OpenAI tot 30 dagen nodig om het volledig uit hun systemen te verwijderen.

Gemini bewaart gesprekken tot 18 maanden. Zelfs met "Activiteit bewaren" uitgeschakeld houdt Google je gegevens nog minstens 72 uur vast.

Wysors speciale verwerkersovereenkomsten met elke aanbieder minimaliseren retentie tot het technische minimum — bij de meeste aanbieders is dat nul. Je gesprekken leven in je werkplek, niet maandenlang op servers van aanbieders.


Trainingsstandaarden variëren per aanbieder

Standaard staan de meeste consumenten-AI-plannen toe dat je gesprekken worden gebruikt voor modelverbetering:

  • Claude: Opt-in sinds oktober 2025, maar Anthropic stelde het standaard in op "aan" voor gebruikers die niet actief reageerden
  • ChatGPT: Standaard ingeschakeld. Kan worden uitgeschakeld via Instellingen > Gegevenscontroles
  • Gemini: Standaard ingeschakeld. Schakel "Activiteit bewaren" uit om je af te melden

Enterprise- en API-abonnementen bij alle drie aanbieders sluiten training doorgaans standaard uit. Maar individuele gebruikers en kleine teams op consumentenplannen moeten dit zelf configureren.

Wysor traint nooit met je gegevens. Niet bij gratis. Niet bij betaald. Bij geen enkel plan. Het is contractueel vastgelegd, niet een schakelaar.


Menselijke beoordelingspraktijken bij aanbieders

Alle drie grote aanbieders hebben een vorm van menselijke beoordeling in hun datapijplijn:

Google is hier transparant over — ze adviseren Gemini-gebruikers expliciet om geen vertrouwelijke informatie in te voeren. Door mensen beoordeelde gesprekken kunnen tot 3 jaar worden opgeslagen, losgekoppeld van je account.

OpenAI vermeldt in hun EU-privacybeleid dat ze content kunnen beoordelen voor veiligheids- en compliance-doeleinden. Afmelden voor training meldt je niet af voor beoordeling. Bij API- en enterprise-abonnementen gelden andere praktijken — OpenAI biedt nul dataretentie voor gekwalificeerde API-klanten.

Anthropic stuurt gemarkeerde Claude-gesprekken naar hun Trust & Safety-team. Gemarkeerde invoer en uitvoer kunnen tot 2 jaar worden bewaard, met veiligheidsscores tot 7 jaar.


Wat "verwijderen" betekent bij elke aanbieder

Verwijderingstermijnen variëren, en in sommige gevallen kunnen gegevens langer bewaard blijven dan verwacht:

  • Gemini: Als een gesprek vóór verwijdering was geselecteerd voor menselijke beoordeling, kan die kopie tot 3 jaar apart bewaard blijven.
  • Claude: Gemarkeerde gesprekken worden tot 2 jaar bewaard ongeacht verwijdering.
  • ChatGPT: Standaard verwijdering duurt tot 30 dagen. In bepaalde juridische procedures (zoals NYT v. OpenAI in 2025) hebben rechtbanken aanbieders opgedragen gespreksgegevens te bewaren — een juridische realiteit die elke aanbieder kan treffen, niet alleen OpenAI.

Bij Wysor betekent verwijderen echt verwijderen. Wanneer aanbieders je gegevens niet langer bewaren dan het minimale verwerkingsvenster, is er niets om te bewaren.


AI-gesprekken en juridisch verschoningsrecht

In februari 2026 stelde United States v. Heppner vast dat gesprekken met AI-assistenten niet beschermd zijn door het beroepsgeheim van advocaten en geen werkproduct vormen.

De redenering: aanbiederbeleiden staan potentiële openbaarmaking aan overheidsinstanties toe en kunnen gebruik voor modelverbetering toestaan. De rechtbank vond geen redelijke verwachting van vertrouwelijkheid.

Dit precedent geldt voor alle aanbieders — elk AI-gesprek op een consumentenplan is potentieel opvraagbaar in juridische procedures. Het minimaliseren van retentie aan de aanbiederkant vermindert dit risico.


Omgang met spraakdata

AI-spraakfuncties worden steeds populairder. Hier is hoe elke aanbieder met audiodata omgaat.

Claude Voice

  • Audio wordt naar Anthropics servers gestuurd en binnen ~24 uur verwijderd
  • Tekst-naar-spraak gebruikt ElevenLabs (een externe aanbieder)
  • De spraak-naar-tekst aanbieder wordt niet openbaar vermeld
  • Geen openbare nulretentie-overeenkomst tussen Anthropic en ElevenLabs

ChatGPT Voice

  • Audio- en videoclips worden samen met het gesprek opgeslagen zolang de chat bestaat
  • Audio wordt niet gebruikt voor training, maar teksttranscripties mogelijk wel als training is ingeschakeld

Gemini Voice

  • Googles "Ephemeral Learning" verwerkt wake-word audio in RAM, maar daadwerkelijke spraakverzoeken worden naar Googles servers gestuurd
  • Google heeft rechtszaken gehad over het omgaan met spraakdata, waaronder een schikking van $68 miljoen met betrekking tot privacypraktijken

Apple Siri

  • Serververwerkte verzoeken: Apple bewaart transcripties tot 2 jaar
  • Dictatie op het apparaat blijft lokaal, maar Apple verzamelt metadata (verzoekscategorie, apparaatinfo, prestatiestatistieken)
  • "Verbeter Siri"-opt-in stelt Apple in staat spraakopnames tot 2 jaar te bewaren
  • Apple schikte een rechtszaak van $95 miljoen over onbedoelde Siri-activeringen

Wysor Voice

  • Alles gebeurt op je apparaat. Audio verlaat nooit je telefoon
  • Geen servers. Geen derden. Geen cloudverwerking. Werkt offline
  • Wij kunnen je spraakdata niet lekken omdat we ze nooit ontvangen

Enterprise-plannen: sterke bescherming, hogere kosten

Alle drie aanbieders bieden enterprise-abonnementen met aanzienlijk betere privacybeschermingen — verwerkersovereenkomsten, trainingsuitsluitingen, en in sommige gevallen nul dataretentie. Dit zijn solide opties voor organisaties met het budget en de inkoopresources.

Claude EnterpriseChatGPT EnterpriseGemini WorkspaceWysor
Nul dataretentieAPI, op goedkeuringBeschikbaar voor gekwalificeerde klantenConfigureerbaarStandaard bij elk plan
Menselijke beoordelingVerminderd (gemarkeerde data kan nog steeds worden beoordeeld)Geen met ZDRGeenGeen standaard.
InkoopprocesEnterprise-verkoopEnterprise-verkoopEnterprise-verkoopZelfbediening aanmelding

Voor OpenAI, waarmee we nog een speciale overeenkomst finaliseren, schakelen we hun dataopslag bij elk individueel verzoek dat we sturen expliciet uit — technisch afgedwongen, niet slechts aangevraagd. Misbruiklogs kunnen tot 30 dagen worden bewaard.

Enterprise-plannen zijn de juiste keuze voor grote organisaties. Maar voor individuen, kleine teams en bedrijven die dezelfde beschermingen willen zonder een inkooptraject, maakt Wysor ze vanaf dag één toegankelijk.


Wat dit voor jou betekent

Je medewerkers gebruiken dagelijks AI — voor contracten, strategie, klantcommunicatie. De vraag is of die gesprekken beschermd worden door contractuele garanties of slechts door standaardinstellingen.

Wysor geeft elke gebruiker — van gratis tot premium — toegang tot GPT-5, Claude, Gemini en Perplexity in één werkplek, ondersteund door speciale verwerkersovereenkomsten die aanbiederretentie minimaliseren, training verbieden en toegang tot gegevens aan de aanbiederzijde minimaliseren. Plus spraaktranscriptie op het apparaat, e-mailbeheer en een volledige audit trail.

Enterprise-privacy zou geen enterprise-contract moeten vereisen.


Verder lezen

Aan de slag met Wysor →


Alle beweringen zijn afkomstig uit officiële privacybeleiden, gebruiksvoorwaarden, rechtbankdocumenten en aanbiederdocumentatie per februari 2026.