Din AI ved mere, end du tror: En privatlivssammenligning af Claude, ChatGPT og Gemini
Technology

Din AI ved mere, end du tror: En privatlivssammenligning af Claude, ChatGPT og Gemini

Prøv dette, før du læser videre. Åbn ChatGPT og skriv: "Hvad er det mest personlige, jeg nogensinde har spurgt dig om?"

Svaret vil være mere specifikt, end du havde forventet. Mere intimt. Mere afslørende. Du husker måske ikke engang, at du har skrevet det. Det gør modellen.

For AI’en har det hele. Kontrakten med din løn på. Stemmenoten om et udslæt. Den svære besked, du udarbejdede til din chef klokken elleve om aftenen. Spørgsmålet, du var for flov til at skrive i Google.

Så her er det ubehagelige spørgsmål, som ingen sætter på prissiden. Hvor ender alt det egentlig?

Vi har læst politikkerne, så du slipper. Det, vi fandt, er grunden til, at Wysor eksisterer.


Scene 1: Kontrakten, du indsatte

Du smider en 14-siders kontrakt ind i ChatGPT. Du fremhæver lønnen, konkurrenceklausulen og den mærkelige klausul om IP.

På en forbrugerplan ligger den samtale på OpenAI’s servere, så længe din konto er aktiv. Du trykker "slet", og det tager op til 30 dage, før den faktisk forlader deres systemer. I nogle tilfælde forlader den dem slet ikke: I 2025 krævede en retskendelse i NYT v. OpenAI, at OpenAI skulle bevare samtaledata, herunder samtaler, som brugerne havde slettet.

Samme scene i Claude. Opbevares som standard i 30 dage. Hvis Anthropics træningsknap er slået til (og siden oktober 2025 har den været tilvalgt som standard, hvilket betyder, at alle, der klikkede sig gennem prompten uden at læse den, sagde ja), kan den samtale blive opbevaret i op til fem år.

På Gemini, op til 18 måneder. Slå "Keep Activity" fra, og Google opbevarer stadig dataene i mindst 72 timer.

Hvad "opbevaret" egentlig betyder

Opbevaret betyder ikke forseglet i et hvælv. Opbevaret betyder, at udbyderen kan åbne det, søge i det, indeksere det, analysere det og overlade det til de systemer og personer, de vælger at give adgang. Deres gennemgangsteam kan åbne det. Deres træningspipelines kan indtage det. Deres ingeniører kan forespørge det under fejlfinding.

Om en fil er krypteret på disken, er et spørgsmål om eksterne angribere. Det er ikke det spørgsmål, der betyder noget for din kontrakt. Det spørgsmål, der betyder noget, er, hvem inde i virksomheden og hvilke af deres interne systemer der kan røre ved den. På en forbrugerplan er svaret: ret mange af dem.

Retskendelsen var ikke unik for OpenAI

En hurtig opsummering, for de fleste har aldrig hørt om denne. I 2023 sagsøgte New York Times OpenAI over brugen af Times-artikler til at træne sine modeller. Midt i 2025, under den igangværende sag, pålagde en føderal domstol OpenAI at bevare stort set alle ChatGPT-brugersamtaler som potentielt bevismateriale, herunder samtaler, som brugerne allerede havde slettet. Almindelige brugere var ikke parter i retssagen. Deres data blev alligevel bevaret.

Den kendelse ramte OpenAI først, men princippet gælder for enhver udbyder, der opbevarer dine samtaler. Anthropic, Google og enhver anden udbyder, der opbevarer brugerdata, er underlagt den samme form for retsproces. En bevarelseskendelse, en stævning, en anmodning om fremlæggelse. Enhver domstol i enhver jurisdiktion, hvor virksomheden opererer, kan tvinge den til at fremlægge eller bevare registreringer, den allerede opbevarer.

Reglen er enkel. Hvis dataene eksisterer, kan de kræves udleveret. Det eneste reelle forsvar er ikke at opbevare dataene i første omgang.

Din kontrakt er ikke en søgeforespørgsel. Det er et dokument med dit navn, din løn og din arbejdsgiver på. Og lige nu ligger det på en andens maskine.

Med nul dataopbevaring bliver den samme kontrakt behandlet, besvaret og væk. Ingen kopi skrives til disken. Ingen medarbejder kan åbne den senere, fordi senere ikke findes. Ingen domstol kan tvinge dens fremlæggelse, fordi der ikke er noget at fremlægge. Dine data er sikre, fordi de aldrig blev gemt.


Scene 2: Din idé er produktet

Googles egen Gemini-hjælpeside er utvetydig: "Indtast venligst ikke fortrolige oplysninger, som du ikke ønsker, at en anmelder skal se, eller som Google skal bruge til at forbedre vores tjenester, herunder maskinlæringsteknologier."

Det er ikke en advarsel om at fange onde aktører. Det er en indrømmelse af, at de samtaler, du har med Gemini, er materiale til menneskelig gennemgang og produktforbedring. Disse gennemgåede samtaler kan opbevares i tre år.

Dette betyder noget på grund af, hvad folk rent faktisk bruger AI til. En ny idé. Et kundeforslag. En produktlinje, ingen har annonceret. Et stykke skrift, verden ikke har set. Du indsætter det i modellen. Du brainstormer. Du forfiner. Du beskriver den ting, du ikke har frigivet endnu.

I den anden ende af den samtale sidder en virksomhed, hvis forretning er at forstå, hvad folk bygger, hvad de spørger efter, og hvad de er villige til at betale for. Den samme virksomhed, der sælger annoncer, sælger konkurrerende værktøjer og sælger sine egne AI-produkter. Din ikke-frigivne idé er, i den mest bogstavelige forstand, værdifuld efterretning for dem.

Tredjeparts aggregator-apps forværrer eksponeringen. En lille virksomhed pakker flere modeller ind i én grænseflade, indsætter sin egen analyse og sit eget personale mellem dig og udbyderen og arver adgang til alt, hvad du indsender. Tillidsfladen fordobles. Det gør tilsynet ikke.

Og intet af dette eksisterer isoleret. Virksomhederne bag de største AI-produkter er de samme virksomheder, der har sporet dig på tværs af nettet i årevis. Deres annoncepixels ved allerede, hvilke sider du besøger, hvilke produkter du overvejer, og hvilke problemer du forsøger at løse. At tilføje dine AI-samtaler til den profil er ikke et særskilt privatlivsspørgsmål. Det er den samme profil, med et langt rigere feed.

Vi byggede Wysor, fordi profilen ikke bør blive rigere. Læs, hvordan vi håndterer sporing på vores eget websted →

Risikoen er ikke det, du luftede over for AI’en. Risikoen er den idé, du indsatte, før du var klar til at vise den til nogen.


Scene 3: Stemmenoten

Du går og taler. Du fortæller din telefon om et symptom, en klient, et dårligt skænderi.

Her er, hvad der sker bagefter, afhængigt af hvis knap du trykkede på:

ChatGPT beholder lyden, så længe chatten eksisterer. Ikke træningsmateriale, men den er der.

Claude sender lyden til Anthropics servere, sletter den inden for cirka 24 timer og kører tekst-til-tale gennem ElevenLabs, en tredjepart, uden nogen offentlig aftale om nul opbevaring mellem dem.

Gemini behandler wake-ordet lokalt, men sender selve anmodningen til Google. Google har allerede betalt 68 mio. dollar for at forlige en retssag om, hvordan det håndterede stemmedata.

Siri gemmer server-behandlede transskriptioner i op til to år. Apple forligte sin egen stemmesag for 95 mio. dollar, efter at Siri blev aktiveret, når ingen sagde "Hey Siri."

Wysor Voice på iOS-appen transskriberer på enheden. Lyden forlader aldrig din telefon.


Scene 4: Retssagen, du ikke så komme

Februar 2026. En sag ved navn United States v. Heppner fastslog, at dine samtaler med AI-assistenter ikke er beskyttet af fortrolighed mellem advokat og klient og heller ikke er arbejdsprodukt.

Domstolens begrundelse var enkel: Udbyderens politikker tillader videregivelse til myndigheder og kan tillade brug til træning. Der er ingen rimelig forventning om fortrolighed. Så alt, hvad der ligger på en forbruger-AI-plan, kan potentielt fremlægges i retssager.

Læs det igen. Det, du fortalte ChatGPT, er det, en advokat kan stævne.


Hvad "nul dataopbevaring" egentlig betyder

Nul dataopbevaring (ZDR) er en kontraktlig aftale med en AI-udbyder, der ændrer din samtales livscyklus på et teknisk niveau.

Under en normal forbrugerplan logges hver besked, du sender, på udbyderens servere. Den opbevares i dage, måneder eller år. Den kan blive sat i kø til menneskelig gennemgang. Den kan indgå i den næste model. Sletning er en proces, der sker senere, hvis den overhovedet sker.

Under nul dataopbevaring sker intet af dette. Din besked når udbyderen. Modellen producerer et svar. Svaret returneres til dig. I det øjeblik kasseres anmodningen og svaret fra udbyderens infrastruktur. Ingen logs. Ingen backup-kopier. Ingen tilbageholdte træningsdata.

Automatiserede sikkerhedsklassifikatorer kører stadig i det øjeblik, anmodningen sendes (alle større udbydere kræver dette, og det gør vi også for at forhindre, at modellen bruges til alvorligt misbrug), men de kører på den aktive anmodning og skaber ikke en gemt registrering af din samtale bagefter.

Der er intet at stævne senere, fordi intet blev beholdt. Der er intet at træne på senere, fordi dataene ikke eksisterer ét sekund efter, at svaret blev genereret.

Dette er den beskyttelse, som store virksomheder betaler for og underskriver indkøbsaftaler for at opnå. Alle andre er efterladt på planer, hvor opbevaring er standard.


Så hvad er forskellen med Wysor?

Vi beder dig ikke om at stole på en knap. Vi underskriver kontrakter.

Nul dataopbevaring er standarden på Wysor, ikke opgraderingen. Enhver udbyder, vi ruter til (Claude, GPT-5, Gemini, Perplexity og enhver open source-model, vi tilbyder), er pakket ind i en dedikeret aftale, der sætter opbevaring til det tekniske minimum. For de fleste udbydere er det minimum nul. Din samtale bliver behandlet og væk.

Vi træner aldrig på dine data. Ikke på gratis. Ikke på betalt. Ikke på nogen plan. Det står i kontrakten, ikke i en indstilling, du skal huske at slå til.

Mange af vores modeller kører på servere inde i EU. Din besked besvares på europæisk infrastruktur, og dine data forlader ikke EU for at blive behandlet. Du kan se, hvilke modeller der er EU-hostede på vores modelside.

På iOS-appen kører stemmetransskription på din enhed.

Og du behøver ikke et indkøbsteam for at få adgang til noget af dette. Du tilmelder dig.


På et øjeblik

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Standardopbevaring30 dage (op til 5 år, hvis træning er slået til)Mens kontoen er aktiv18 månederNul for de fleste udbydere
Træning på dine dataTilvalg, slået til som standardSlået til som standardSlået til som standardAldrig
Hvor dine data behandlesUSA (forbrugerstandard)USA (forbrugerstandard)USA (forbrugerstandard)EU for mange modeller
StemmeLyd til servere, ~24tGemt med chatSendt til GooglePå enheden (iOS-app)
Hvordan du får det20 $/måned20 $/måned20 $/månedGratis plan fungerer også

Hvad dette virkelig betyder

Din AI kender din løn, dine symptomer og det, du er bange for at fortælle din partner. Den kender også dit ikke-frigivne produkt, din prissætning, din kundestrategi og den idé, ingen andre har hørt endnu. Intet af det er et funktionsproblem. Det hele er et opbevaringsproblem.

Wysor beskytter begge dele. Dine personlige samtaler forbliver dine. Det gør dine forretningssamtaler også. Din nye idé er ikke materiale til en andens træningskørsel. Dit klientarbejde er ikke efterretning for en virksomhed, der også sælger konkurrerende værktøjer. Din prissætning er ikke en linje i en anmelders kø.

Vi giver hver bruger, fra en gratis konto til en fuld forretningsplan, den slags privatlivsbeskyttelse, der tidligere krævede en indkøbscyklus.

Slet skal betyde slet. Stemme skal blive på din telefon. Din næste idé skal forblive din.


Læs videre

Kom godt i gang med Wysor →


Alle påstande er hentet fra officielle privatlivspolitikker, servicevilkår, retsdokumenter og udbyderdokumentation pr. februar 2026.