Du trener din erstatter: Hvordan Cowork bruker ekspertisen din
Vi har alle internalisert det gamle ordtaket: «Hvis et produkt er gratis, er du produktet.» Så da AI-verktøy begynte å ta 20 $/måned, slappet mange av oss stille av. Vi betaler. Vi er kunden. Dataene våre er nok fine.
Den antagelsen bryter sammen når man ser nærmere på hvordan «agentiske» verktøy som Anthropics Cowork faktisk fungerer.
Cowork er en ny modus i Claude Desktop. I stedet for en frem-og-tilbake-chat gir du den tilgang til de lokale filene dine og lar den utføre oppgaver: organisere nedlastinger, analysere regneark, utkaste presentasjoner, syntetisere forskning på tvers av dusinvis av dokumenter. Markedsføringen lener seg tungt på at det kjører «på datamaskinen din» og fremhever «lokal» bruk.
Brukt riktig er det kraftfullt. Men måten det håndterer dataene dine, og hvordan de dataene kan brukes, fortjener en tydelig forklaring.
Hva «kjører lokalt» faktisk betyr
Anthropic sier at Cowork «kjører på datamaskinen din.» Samtalehistorikk er «lagret lokalt.» Det er en lokal VM som holder ting «isolert.»
De fleste vil forståelig nok lese dette som: filene mine behandles lokalt på maskinen min.
Det er ikke det som skjer.
AI-modellen kjører ikke på laptopen din. Den kjører i Anthropics datasentre. Når Cowork leser filene dine, sendes innholdet til Anthropics servere for behandling. Det som er «lagret lokalt» er chatloggen og sesjonstilstanden, ikke den sentrale modellberegningen.
Med andre ord: det faktum at du ser en desktop-app og en lokal VM betyr ikke at dokumentene dine aldri forlater enheten din. Det gjør de. «Kjører lokalt» og «behandler lokalt» er veldig forskjellige utsagn fra et personvernperspektiv.
Trening: Reservasjon, ikke av som standard
På Claude Pro er samtalene dine kvalifisert for modelltrening som standard, med mindre du eksplisitt reserverer deg. Anthropic gikk over til en opt-in-flyt sent i 2025, men hvis du avviste eller hoppet over den prompten, kan kontoen din fortsatt være påmeldt.
Kombiner det med Coworks atferd:
I en vanlig chat limer du selektivt inn innhold. I Cowork kan du gi tilgang til hele mapper: kundeforslag, finansielle modeller, strategidokumenter, interne notater, konkurranseanalyser. Det er et langt større og mer sensitivt datasett enn en typisk chatinteraksjon.
Selv når du deaktiverer trening, sendes dataene dine fortsatt til Anthropics servere for å oppfylle forespørselen din. Å slå av «Hjelp med å forbedre Claude» adresserer bare én del av livssyklusen, ikke de bredere spørsmålene om lagring, tilgang og reviderbarhet.
Enterprise-planer dekker ikke fullt ut Cowork
Det er rimelig å anta: «Forbrukerplanene er løse, men Enterprise må være låst ned. Det er det premien er for.»
Anthropics egen dokumentasjon for Cowork kompliserer den forventningen. De angir eksplisitt:
«Cowork-aktivitet registreres ikke i revisjonslogger, Compliance API eller dataeksporter. Ikke bruk Cowork for regulerte arbeidsmengder.»
Revisjonsloggene og compliance-API-ene som Enterprise-kunder stoler på, gjenspeiler ikke Cowork-aktivitet. Data behandlet via Cowork faller utenfor normale eksport- og tilsynsmekanismer. Anthropic advarer selv mot å bruke Cowork for regulerte arbeidsmengder.
Så selv om organisasjonen din kan ha en DPA, revisjoner og lagringskontroller for kjernebruk av Claude, ligger Cowork utenfor disse kontrollene med mindre og inntil Anthropic endrer integrasjonen.
Dette er det motsatte av hva mange sikkerhets- og samsvarsteam antar: at nye funksjoner arver eksisterende sikkerhetstiltak som standard.
Den reelle risikoen: Du systematiserer din egen ekspertise
Den viktigste — og minst diskuterte — dynamikken er ikke simpelthen at dokumentene dine behandles eller til og med lagres. Det er hvordan ekspertisen din kodes inn.
Når en konsulent mater gjentakende kundearbeid gjennom Cowork, eller en analytiker bruker det til å strukturere proprietær forskning, eller en leder kjører interne strategidokumenter gjennom det, bruker de ikke bare et verktøy. De systematiserer sine egne mønstre: analytiske rammeverk, skrivestil og tone, domenespesifikke heuristikker, bransjekunnskap akkumulert over år.
Hvis de dataene brukes i modelltrening, blir disse mønstrene en del av modellens atferd. Fremtidige brukere kan be Claude om å «skrive en konkurranseanalyse for [din bransje]» og motta output påvirket av mønstrene til tidligere brukere i samme domene. Brukere som aldri hadde til hensikt at rammeverkene deres skulle bli en generisk produktfunksjon.
Det er en enkel konsekvens av hvordan store modeller lærer fra treningsdata. Jo mer spesialisert arbeidet ditt er, desto mer verdifullt er det som treningssignal, og desto mer direkte kan det erodere differensieringen din hvis du ikke er forsiktig med hvor dataene ender.
På 2010-tallet var handelen oppmerksomhet i bytte mot gratis produkter og målrettede annonser. På 2020-tallet er handelen raskt i ferd med å bli ekspertisen din i bytte mot modellforbedringer.
Nettsøk: En separat utgangsrute
Selv om du prøver å låse ned nettverkstilgang inne i Cowork, er det et viktig unntak: nettsøk.
Anthropics dokumentasjon bemerker:
«Nettverksutgangsrettigheter gjelder ikke for nettsøkverktøyet.»
Forespørsler Cowork utsteder på dine vegne — hva du forsker på, hvilke markeder, hvilke teknologier — sendes fortsatt til eksterne søkeleverandører. Disse forespørslene kan avsløre forretningskontekst som kunder, bransjer, avtalestrukturer og konkurranselandskap, selv om underliggende dokumenter forblir begrenset.
Du kan lykkes med å begrense direkte filutgang mens du utilsiktet eksponerer et detaljert avtrykk av forskningsinteressene og mønstrene dine.
Hvorfor forbrukerplaner ser ut som de gjør
Enterprise-tilbud gir typisk DPA-er, treningsunntak, sterkere lagringskontroller, revisjonslogger og samsvarsverktøy. Det er forhandlede, kontraktsmessige beskyttelser. De tar tid, advokater og budsjett.
I motsetning er de fleste tidlige brukere av Cowork på individuelle planer eller planer for små team. Frilansere og uavhengige konsulenter. Boutique-byråer. Små interne team og individuelle kunnskapsarbeidere.
Denne gruppens data er uforholdsmessig verdifulle: høyt spesialiserte, direkte knyttet til inntektsgenererende ekspertise, rike på proprietære rammeverk og taktikker. Likevel er de på planer som som standard tillater trening med mindre du eksplisitt reserverer deg, stoler på UI-knapper i stedet for håndhevbare kontrakter og tilbyr begrenset reviderbarhet og styring.
Det er ikke nødvendigvis ondsinnet. Slik har forbruker-SaaS fungert i årevis. Men forretningsmodellen avhenger av store mengder brukerdata av høy kvalitet, og individuelle eksperter er en spesielt rik kilde til disse dataene.
Hvordan vi designet Wysor annerledes
Da vi bygde Wysor, startet vi fra en annen premiss: ekspertisen din er et aktivum, ikke inndatabrennstoff for en annens modell.
Før vi skrev kode, etablerte vi databehandlingsavtaler med enhver AI-leverandør vi bruker. Ikke som en preferanseknapp, men som en grunnleggende juridisk garanti for hvordan dataene dine behandles.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Trening på dataene dine | UI-reservasjon (historisk standard til på) | Kontraktsmessig forbudt på alle planer, inkludert gratis |
| Revisjonsspor | Ingen revisjonslogging for Cowork-aktivitet | Fullt revisjonsspor av aktivitet og tilgang |
| Datalagring | 30 dager til 5 år avhengig av kontekst | Minimert til det strenge tekniske minimum, definert i kontrakter |
| Håndhevelsesmekanisme | Innstillingsknapper og policyspråk | DPA-er og kommersielle kontrakter med juridiske rettsmidler |
Hvis du er konsulent, analytiker eller operatør hvis dokumenter er differensieringen din, betyr dette noe. Du bør kunne bruke avansert AI uten å gjøre dine unike mønstre til en generisk funksjon for alle andre.
Hvis du bruker Cowork i dag
Cowork kan være genuint nyttig. Poenget er ikke å unngå det helt. Det er å forstå avveiningene og ta informerte valg.
-
Sjekk treningsinnstillingene dine. I Claude: Innstillinger, Personvern. Sørg for at «Hjelp med å forbedre Claude» er slått av hvis du ikke vil at dataene dine brukes i trening.
-
Vær bevisst på hvilke mapper du eksponerer. Unngå å peke Cowork mot mapper som inneholder det mest sensitive kundearbeidet ditt, intern strategi eller regulerte data — spesielt inntil Anthropic tilbyr full revisjonslogging for Cowork.
-
Anerkjenn knappenes begrensninger. Å reservere seg fra trening forhindrer ikke alle former for datatilgang eller lagring. Nettsøk og andre integrasjoner kan fortsatt avsløre betydelig kontekst om hva du jobber med.
-
Foretrekk kontraktsmessige beskyttelser der det er mulig. For arbeid som materielt påvirker kundene dine eller konkurransefordelen din, bruk verktøy der personverngarantier er støttet av kontrakter, ikke bare preferanser.
Eller bruk et arbeidsområde som starter med kontraktsmessige personverngarantier og designer rundt dem, i stedet for å be deg akseptere dem som en ettertanke.
Les videre
- AI-en din vet mer enn du tror — En praktisk sammenligning av personvernpolicyer for ChatGPT, Claude og Gemini.
- Shadow AI: Når de ansatte dine bruker ChatGPT bak ryggen din — Hvorfor enkle forbud mislykkes, og hvordan du styrer AI-bruk uten å miste kontroll over dataene dine.
- Fullstendig personvern: Dataene dine forlater aldri din kontroll — Hvordan Wysor leverer frontlinje-AI mens dataene dine forblir under streng kontraktsmessig og teknisk kontroll.
Alle produktbeskrivelser og policyreferanser er basert på Anthropics Cowork-dokumentasjon, Claudes personvernregler og tjenestevilkår per mars 2026. Gjennomgå alltid den nyeste offisielle dokumentasjonen før du tar beslutninger om sensitive eller regulerte arbeidsmengder.



