Du træner din afløser: Hvordan Cowork bruger din ekspertise
Vi har alle internaliseret det gamle ordsprog: "Hvis et produkt er gratis, er du produktet." Så da AI-værktøjer begyndte at opkræve 20 $/måned, slappede mange af os stille af. Vi betaler. Vi er kunden. Vores data er nok fine.
Den antagelse bryder sammen, når man ser nærmere på, hvordan "agentiske" værktøjer som Anthropics Cowork faktisk fungerer.
Cowork er en ny tilstand i Claude Desktop. I stedet for en frem-og-tilbage chat giver du den adgang til dine lokale filer og lader den udføre opgaver: organisere downloads, analysere regneark, udkaste præsentationer, syntetisere forskning på tværs af snesevis af dokumenter. Markedsføringen læner sig kraftigt op ad, at det kører "på din computer" og fremhæver "lokal" brug.
Brugt korrekt er det kraftfuldt. Men måden det håndterer dine data, og hvordan de data kan bruges, fortjener en klar forklaring.
Hvad "kører lokalt" faktisk betyder
Anthropic siger, at Cowork "kører på din computer." Samtalehistorik er "gemt lokalt." Der er en lokal VM, der holder tingene "isoleret."
De fleste vil forståeligt nok læse dette som: mine filer behandles lokalt på min maskine.
Det er ikke hvad der sker.
AI-modellen kører ikke på din laptop. Den kører i Anthropics datacentre. Når Cowork læser dine filer, sendes indholdet til Anthropics servere til behandling. Det der er "gemt lokalt" er chatloggen og sessionstilstanden, ikke den centrale modelberegning.
Med andre ord: det faktum, at du ser en desktop-app og en lokal VM, betyder ikke, at dine dokumenter aldrig forlader din enhed. Det gør de. "Kører lokalt" og "behandler lokalt" er meget forskellige udsagn fra et privatlivsperspektiv.
Træning: Fravalg, ikke slået fra som standard
På Claude Pro er dine samtaler som standard berettigede til modeltræning, medmindre du eksplicit fravælger det. Anthropic overgik til en tilvalgs-flow i slutningen af 2025, men hvis du afviste eller sprang den prompt over, kan din konto stadig være tilmeldt.
Kombinér det med Coworks adfærd:
I en normal chat indsætter du selektivt indhold. I Cowork kan du give adgang til hele mapper: kundeforslag, finansielle modeller, strategidokumenter, interne notater, konkurrenceanalyser. Det er et langt større og mere følsomt datasæt end en typisk chatinteraktion.
Selv når du deaktiverer træning, sendes dine data stadig til Anthropics servere for at opfylde din forespørgsel. At slå "Hjælp med at forbedre Claude" fra adresserer kun én del af livscyklussen, ikke de bredere spørgsmål om opbevaring, adgang og reviderbarhed.
Enterprise-planer dækker ikke fuldt Cowork
Det er rimeligt at antage: "Forbrugerplanerne er løse, men Enterprise må være låst ned. Det er det, præmien er for."
Anthropics egen dokumentation for Cowork komplicerer den forventning. De angiver eksplicit:
"Cowork-aktivitet registreres ikke i revisionslogfiler, Compliance API eller dataeksporter. Brug ikke Cowork til regulerede arbejdsbelastninger."
De revisionslogfiler og compliance-API'er, som Enterprise-kunder stoler på, afspejler ikke Cowork-aktivitet. Data behandlet via Cowork falder uden for normale eksport- og tilsynsmekanismer. Anthropic advarer selv mod at bruge Cowork til regulerede arbejdsbelastninger.
Så selvom din organisation kan have en DPA, revisioner og opbevaringskontroller for kerne Claude-brug, ligger Cowork uden for disse kontroller, medmindre og indtil Anthropic ændrer integrationen.
Det er det modsatte af, hvad mange sikkerheds- og complianceteams antager: at nye funktioner arver eksisterende sikkerhedsforanstaltninger som standard.
Den reelle risiko: Du systematiserer din egen ekspertise
Den vigtigste — og mindst diskuterede — dynamik er ikke simpelthen, at dine dokumenter behandles eller endda opbevares. Det er, hvordan din ekspertise indkodes.
Når en konsulent fører tilbagevendende kundearbejde gennem Cowork, eller en analytiker bruger det til at strukturere proprietær forskning, eller en leder kører interne strategidokumenter igennem det, bruger de ikke bare et værktøj. De systematiserer deres egne mønstre: analytiske rammer, skrivestil og tone, domænespecifikke heuristikker, brancheviden akkumuleret over år.
Hvis de data bruges i modeltræning, bliver disse mønstre en del af modellens adfærd. Fremtidige brugere kan bede Claude om at "skrive en konkurrenceanalyse for [din branche]" og modtage output, der er påvirket af mønstrene fra tidligere brugere i samme domæne. Brugere, der aldrig havde til hensigt, at deres rammer skulle blive en generisk produktfunktion.
Det er en ligetil konsekvens af, hvordan store modeller lærer af træningsdata. Jo mere specialiseret dit arbejde er, jo mere værdifuldt er det som træningssignal, og jo mere direkte kan det erodere din differentiering, hvis du ikke er forsigtig med, hvor de data ender.
I 2010'erne var handlen opmærksomhed i bytte for gratis produkter og målrettede annoncer. I 2020'erne er handlen hurtigt ved at blive din ekspertise i bytte for modelforbedringer.
Websøgning: En separat udgangsvej
Selv hvis du prøver at låse netværksadgang ned inde i Cowork, er der en vigtig undtagelse: websøgning.
Anthropics dokumentation bemærker:
"Netværksudgangsrettigheder gælder ikke for websøgningsværktøjet."
Forespørgsler, som Cowork udsteder på dine vegne — hvad du undersøger, hvilke markeder, hvilke teknologier — sendes stadig til eksterne søgeudbydere. Disse forespørgsler kan afsløre forretningskontekst som kunder, brancher, aftalestrukturer og konkurrencelandskaber, selv hvis underliggende dokumenter forbliver begrænsede.
Du kan med succes begrænse direkte filudgang, mens du utilsigtet eksponerer et detaljeret aftryk af dine forskningsinteresser og mønstre.
Hvorfor forbrugerplaner ser ud, som de gør
Enterprise-tilbud giver typisk DPA'er, træningsundtagelser, stærkere opbevaringskontroller, revisionslogfiler og complianceværktøjer. Det er forhandlede, kontraktmæssige beskyttelser. De tager tid, advokater og budget.
Derimod er de fleste tidlige brugere af Cowork på individuelle planer eller planer for små teams. Freelancere og uafhængige konsulenter. Boutique-bureauer. Små interne teams og individuelle videnarbejdere.
Denne gruppes data er uforholdsmæssigt værdifulde: højt specialiserede, direkte knyttet til omsætningsgenererende ekspertise, rige på proprietære rammer og taktikker. Alligevel er de på planer, der som standard tillader træning, medmindre du eksplicit fravælger, stoler på UI-knapper i stedet for håndhævelige kontrakter og tilbyder begrænset reviderbarhed og governance.
Det er ikke nødvendigvis ondsindet. Sådan har forbruger-SaaS fungeret i årevis. Men forretningsmodellen afhænger af store mængder brugerdata af høj kvalitet, og individuelle eksperter er en særligt rig kilde til disse data.
Hvordan vi designede Wysor anderledes
Da vi byggede Wysor, startede vi fra en anden præmis: din ekspertise er et aktiv, ikke inputbrændstof til en andens model.
Før vi skrev kode, etablerede vi databehandlingsaftaler med enhver AI-udbyder, vi bruger. Ikke som en præferenceknap, men som en grundlæggende juridisk garanti for, hvordan dine data behandles.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Træning på dine data | UI-fravalg (historisk standard til) | Kontraktmæssigt forbudt på alle planer, inklusive gratis |
| Revisionsspor | Ingen revisionslogning for Cowork-aktivitet | Fuldt revisionsspor af aktivitet og adgang |
| Dataopbevaring | 30 dage til 5 år afhængigt af kontekst | Minimeret til det strenge tekniske minimum, defineret i kontrakter |
| Håndhævelsesmekanisme | Indstillingsknapper og politiksprog | DPA'er og kommercielle kontrakter med juridiske retsmidler |
Hvis du er konsulent, analytiker eller operatør, hvis dokumenter er din differentiering, er dette vigtigt. Du bør kunne bruge avanceret AI uden at omdanne dine unikke mønstre til en generisk funktion for alle andre.
Hvis du bruger Cowork i dag
Cowork kan være genuint nyttigt. Pointen er ikke at undgå det helt. Det er at forstå kompromiserne og træffe informerede valg.
-
Tjek dine træningsindstillinger. I Claude: Indstillinger, Privatliv. Sørg for, at "Hjælp med at forbedre Claude" er slået fra, hvis du ikke vil have dine data brugt i træning.
-
Vær bevidst om, hvilke mapper du eksponerer. Undgå at pege Cowork mod mapper, der indeholder dit mest følsomme kundearbejde, intern strategi eller regulerede data — især indtil Anthropic tilbyder fuld revisionslogning for Cowork.
-
Anerkend knappernes begrænsninger. At fravælge træning forhindrer ikke alle former for dataadgang eller opbevaring. Websøgning og andre integrationer kan stadig afsløre betydelig kontekst om, hvad du arbejder med.
-
Foretræk kontraktmæssige beskyttelser, hvor det er muligt. For arbejde, der materielt påvirker dine kunder eller din konkurrencefordel, brug værktøjer, hvor privatlivsgarantier er bakket op af kontrakter, ikke bare præferencer.
Eller brug et arbejdsområde, der starter med kontraktmæssige privatlivsgarantier og designer omkring dem, i stedet for at bede dig acceptere dem som en eftertanke.
Læs videre
- Din AI ved mere, end du tror — En praktisk sammenligning af privatlivspolitikker for ChatGPT, Claude og Gemini.
- Shadow AI: Når dine medarbejdere bruger ChatGPT bag din ryg — Hvorfor simple forbud fejler, og hvordan du styrer AI-brug uden at miste kontrol over dine data.
- Fuldstændig privatliv: Dine data forlader aldrig din kontrol — Hvordan Wysor leverer frontlinje-AI, mens dine data forbliver under streng kontraktmæssig og teknisk kontrol.
Alle produktbeskrivelser og politikreferencer er baseret på Anthropics Cowork-dokumentation, Claudes privatlivspolitikker og servicevilkår pr. marts 2026. Gennemgå altid den seneste officielle dokumentation, før du træffer beslutninger om følsomme eller regulerede arbejdsbelastninger.



