Je traint je eigen vervanger: hoe Cowork je expertise gebruikt
We hebben het oude gezegde allemaal geïnternaliseerd: "Als een product gratis is, ben jij het product." Dus toen AI-tools $20/maand gingen kosten, ontspanden velen van ons stilletjes. We betalen. We zijn de klant. Onze gegevens zijn waarschijnlijk veilig.
Die aanname brokkelt af zodra je goed kijkt naar hoe "agentische" tools zoals Anthropics Cowork daadwerkelijk werken.
Cowork is een nieuwe modus in Claude Desktop. In plaats van een heen-en-weer chat geef je het toegang tot je lokale bestanden en laat je het taken uitvoeren: downloads organiseren, spreadsheets analyseren, presentaties opstellen, onderzoek samenvatten over tientallen documenten. De marketing leunt zwaar op het feit dat het "op je computer" draait en benadrukt "lokaal" gebruik.
Correct gebruikt is het krachtig. Maar de manier waarop het met je gegevens omgaat, en hoe die gegevens kunnen worden gebruikt, verdient een duidelijke uitleg.
Wat "draait lokaal" werkelijk betekent
Anthropic zegt dat Cowork "op je computer draait." Gespreksgeschiedenis wordt "lokaal opgeslagen." Er is een lokale VM die alles "geïsoleerd" houdt.
De meeste mensen zullen dit begrijpelijkerwijs lezen als: mijn bestanden worden lokaal op mijn machine verwerkt.
Dat is niet wat er gebeurt.
Het AI-model zelf draait niet op je laptop. Het draait in Anthropics datacentra. Wanneer Cowork je bestanden leest, worden de inhouden naar Anthropics servers gestuurd voor verwerking. Wat "lokaal opgeslagen" wordt, is het chatlog en de sessiestatus — niet de kernmodelberekening.
Met andere woorden: het feit dat je een desktopapp en een lokale VM ziet, betekent niet dat je documenten nooit je apparaat verlaten. Dat doen ze wel. "Draait lokaal" en "verwerkt lokaal" zijn vanuit privacyperspectief heel verschillende uitspraken.
Training: opt-out, niet standaard uit
Bij Claude Pro komen je gesprekken standaard in aanmerking voor modeltraining, tenzij je je expliciet afmeldt. Anthropic schakelde eind 2025 over naar een opt-in-flow, maar als je de prompt wegklikte of oversloeg, is je account mogelijk nog steeds ingeschreven.
Combineer dat met het gedrag van Cowork:
Bij een normaal chatgesprek plak je selectief content. Bij Cowork kun je toegang verlenen tot volledige mappen: klantvoorstellen, financiële modellen, strategiedocumenten, interne memo's, concurrentieanalyses. Dat is een aanzienlijk grotere en gevoeligere dataset dan een typische chatinteractie.
Zelfs wanneer je training uitschakelt, worden je gegevens nog steeds naar Anthropics servers gestuurd om je verzoek te vervullen. "Help Claude te verbeteren" uitschakelen adresseert slechts één deel van de levenscyclus — niet de bredere vragen over retentie, toegang en controleerbaarheid.
Enterprise-plannen dekken Cowork niet volledig
Het is logisch om aan te nemen: "De consumentenplannen zijn los, maar Enterprise moet vergrendeld zijn. Daar betaal je het premium voor."
Anthropics eigen documentatie voor Cowork compliceert die verwachting. Ze stellen expliciet:
"Cowork-activiteit wordt niet vastgelegd in Audit Logs, Compliance API of Data Exports. Gebruik Cowork niet voor gereguleerde workloads."
De audit logs en compliance-API's waar Enterprise-klanten op vertrouwen, reflecteren geen Cowork-activiteit. Gegevens verwerkt via Cowork vallen buiten de normale export- en toezichtmechanismen. Anthropic zelf waarschuwt tegen het gebruik van Cowork voor gereguleerde workloads.
Dus hoewel je organisatie mogelijk een verwerkersovereenkomst, audits en retentiecontroles heeft voor regulier Claude-gebruik, staat Cowork buiten die controles — tenzij en totdat Anthropic de integratie wijzigt.
Dit is het tegenovergestelde van wat veel beveiligings- en compliance-teams aannemen: dat nieuwe functies automatisch bestaande beveiligingsmaatregelen erven.
Het echte risico: je systematiseert je eigen expertise
De belangrijkste — en minst besproken — dynamiek is niet simpelweg dat je documenten worden verwerkt of zelfs bewaard. Het gaat erom hoe je expertise wordt gecodeerd.
Wanneer een consultant terugkerend klantwerk door Cowork laat lopen, of een analist het gebruikt om propriëtair onderzoek te structureren, of een directeur interne strategiedocumenten erdoor verwerkt — dan gebruiken ze niet gewoon een tool. Ze systematiseren hun eigen patronen: analytische raamwerken, schrijfstijl en toon, domeinspecifieke heuristieken, jarenlang opgebouwde branchekennis.
Als die gegevens worden gebruikt bij modeltraining, worden die patronen onderdeel van het modelgedrag. Toekomstige gebruikers kunnen Claude vragen om "een concurrentieanalyse te schrijven voor [jouw branche]" en krijgen output die is beïnvloed door de patronen van eerdere gebruikers in datzelfde domein. Gebruikers die nooit de bedoeling hadden dat hun raamwerken een generieke productfunctie zouden worden.
Het is een logisch gevolg van hoe grote modellen leren van trainingsdata. Hoe gespecialiseerder je werk, hoe waardevoller het is als trainingssignaal — en hoe directer het je differentiatie kan ondermijnen als je niet oplet waar die gegevens naartoe gaan.
In de jaren 2010 was de ruil: aandacht in ruil voor gratis producten en gerichte advertenties. In de jaren 2020 wordt de ruil steeds meer: je expertise in ruil voor modelverbeteringen.
Webzoeken: een apart datalek-pad
Zelfs als je probeert netwerktoegang binnen Cowork te vergrendelen, is er een belangrijke uitzondering: webzoeken.
Anthropics documentatie vermeldt:
"Netwerk-egressierechten zijn niet van toepassing op het webzoektool."
Zoekopdrachten die Cowork namens jou uitvoert — wat je onderzoekt, welke markten, welke technologieën — worden nog steeds naar externe zoekaanbieders gestuurd. Deze zoekopdrachten kunnen zakelijke context onthullen zoals klanten, branches, dealstructuren en concurrentielandschappen, zelfs als onderliggende documenten beperkt blijven.
Je kunt directe bestands-egress mogelijk succesvol beperken terwijl je onbedoeld een gedetailleerde voetafdruk van je onderzoeksinteressen en -patronen blootstelt.
Waarom consumentenplannen eruitzien zoals ze eruitzien
Enterprise-aanbiedingen bieden doorgaans verwerkersovereenkomsten, trainingsuitsluitingen, sterkere retentiecontroles, audit logs en compliance-tools. Dat zijn onderhandelde, contractuele beschermingen. Ze kosten tijd, juristen en budget.
Daarentegen zijn de meeste early adopters van Cowork gebruikers met individuele of kleine-teamplannen. Freelancers en zelfstandige consultants. Boutique-bureaus. Kleine interne teams en individuele kenniswerkers.
De gegevens van deze groep zijn onevenredig waardevol: zeer gespecialiseerd, direct gekoppeld aan omzetgenererende expertise, dicht gevuld met propriëtaire raamwerken en tactieken. Toch zitten ze op plannen die standaard training toestaan tenzij je je expliciet afmeldt, vertrouwen op UI-schakelaars in plaats van afdwingbare contracten, en beperkte controleerbaarheid en governance bieden.
Dat is niet per se kwaadwillig. Zo werkt consumenten-SaaS al jaren. Maar het bedrijfsmodel is afhankelijk van grote volumes hoogwaardige gebruikersgegevens — en individuele experts zijn een bijzonder rijke bron van die gegevens.
Hoe wij Wysor anders hebben ontworpen
Toen we Wysor bouwden, begonnen we vanuit een andere premisse: je expertise is een bezit, geen brandstof voor het model van iemand anders.
Voordat we code schreven, hebben we verwerkersovereenkomsten afgesloten met elke AI-aanbieder die we gebruiken. Niet als een voorkeurschakelaar, maar als een juridische basisgarantie over hoe je gegevens worden behandeld.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Training met je gegevens | UI-opt-out (historisch standaard ingeschakeld) | Contractueel verboden bij elk plan, inclusief gratis |
| Audit trail | Geen audit-logging voor Cowork-activiteit | Volledige audit trail van activiteit en toegang |
| Dataretentie | 30 dagen tot 5 jaar afhankelijk van context | Geminimaliseerd tot het strikte technische minimum, contractueel vastgelegd |
| Handhavingsmechanisme | Instellingsschakelaars en beleidstaal | Verwerkersovereenkomsten en commerciële contracten met juridische verhaalsmogelijkheden |
Als je consultant, analist of manager bent wiens documenten je differentiatie vormen, is dit belangrijk. Je zou geavanceerde AI moeten kunnen gebruiken zonder je unieke patronen te veranderen in een generieke functie voor iedereen.
Als je Cowork vandaag gebruikt
Cowork kan oprecht nuttig zijn. Het punt is niet om het volledig te vermijden. Het gaat erom de afwegingen te begrijpen en geïnformeerde keuzes te maken.
-
Controleer je trainingsinstellingen. In Claude: Instellingen, Privacy. Zorg ervoor dat "Help Claude te verbeteren" uit staat als je niet wilt dat je gegevens voor training worden gebruikt.
-
Wees bewust welke mappen je blootstelt. Richt Cowork niet op mappen met je meest gevoelige klantwerk, interne strategie of gereguleerde gegevens — vooral zolang Anthropic geen volledige audit-logging voor Cowork biedt.
-
Erken de beperkingen van de schakelaars. Afmelden voor training voorkomt niet alle vormen van gegevenstoegang of -retentie. Webzoeken en andere integraties kunnen nog steeds aanzienlijke context onthullen over waaraan je werkt.
-
Geef waar mogelijk de voorkeur aan contractuele beschermingen. Voor werk dat je klanten of je concurrentievoordeel wezenlijk raakt, gebruik tools waarbij privacygaranties worden ondersteund door contracten — niet slechts door voorkeuren.
Of gebruik een werkplek die begint met contractuele privacygaranties en daaromheen ontworpen is, in plaats van je te vragen ze als bijzaak te accepteren.
Verder lezen
- Je AI weet meer dan je denkt — Een praktische vergelijking van privacybeleiden voor ChatGPT, Claude en Gemini.
- Schaduw-AI: wanneer je medewerkers stiekem ChatGPT gebruiken — Waarom simpele verboden falen en hoe je AI-gebruik beheert zonder de controle over je gegevens te verliezen.
- Volledige privacy: je gegevens verlaten nooit je controle — Hoe Wysor top-AI levert terwijl je gegevens onder strikte contractuele en technische controle blijven.
Alle productbeschrijvingen en beleidsverwijzingen zijn gebaseerd op Anthropics Cowork-documentatie, Claude-privacybeleiden en gebruiksvoorwaarden per maart 2026. Raadpleeg altijd de meest recente officiële documentatie voordat je beslissingen neemt over gevoelige of gereguleerde workloads.



