KI-en din vet mer enn du tror: En personvernsammenligning av Claude, ChatGPT og Gemini
Technology

KI-en din vet mer enn du tror: En personvernsammenligning av Claude, ChatGPT og Gemini

Prøv dette før du leser videre. Åpne ChatGPT og skriv: "Hva er det mest personlige jeg noen gang har spurt deg om?"

Svaret vil være mer spesifikt enn du forventet. Mer intimt. Mer avslørende. Du husker kanskje ikke engang at du skrev det. Modellen gjør det.

For KI-en har alt sammen. Kontrakten med lønnen din på. Taleopptaket om et utslett. Den vanskelige meldingen du skrev utkast til sjefen klokken elleve om kvelden. Spørsmålet du vår for flau til å skrive inn i Google.

Så her er det ubehagelige spørsmålet ingen setter på prissiden. Hvor havner alt dette egentlig?

Vi har lest retningslinjene slik at du slipper. Det vi fant, er grunnen til at Wysor finnes.


Scene 1: Kontrakten du limte inn

Du slipper en 14-siders kontrakt inn i ChatGPT. Du markerer lønnen, konkurranseklausulen og den rare paragrafen om immaterielle rettigheter.

På et forbrukerabonnement ligger den samtalen på OpenAIs servere så lenge kontoen din er aktiv. Du trykker "slett", og det tar opptil 30 dager før den faktisk forlater systemene deres. I enkelte tilfeller forlater den dem aldri: i 2025 påla en rettskjennelse i NYT v. OpenAI OpenAI å bevare samtaledata, inkludert samtaler brukere hadde slettet.

Samme scene på Claude. Lagret i 30 dager som standard. Hvis Anthropics treningsbryter er på (og siden oktober 2025 har den vært opt-in som standard, noe som betyr at alle som klikket seg gjennom forespørselen uten å lese, så ja), kan den samtalen beholdes i opptil fem år.

På Gemini, opptil 18 måneder. Slår du av "Behold aktivitet", beholder Google likevel dataene i minst 72 timer.

Hva "lagret" faktisk betyr

Lagret betyr ikke forseglet i et hvelv. Lagret betyr at leverandøren kan åpne det, søke i det, indeksere det, analysere det og overlevere det til systemene og personene de velger å gi tilgang. Deres gjennomgangsteam kan åpne det. Deres treningspipelines kan ta det inn. Deres ingeniører kan spørre i det under feilsøking.

Om en fil er kryptert på disk, er et spørsmål om utenforstående angripere. Det er ikke spørsmålet som betyr noe for kontrakten din. Spørsmålet som betyr noe, er hvem inne i selskapet, og hvilke av deres interne systemer, som kan ta i det. På et forbrukerabonnement er svaret: ganske mange av dem.

Rettskjennelsen vår ikke unik for OpenAI

En rask oppsummering, fordi de fleste aldri hørte om denne. I 2023 saksøkte New York Times OpenAI for bruken av Times-artikler til å trene modellene. Midt i 2025, under den pågående saken, påla en føderal domstol OpenAI å bevare i praksis alle ChatGPT-brukeres samtaler som potensielt bevismateriale, inkludert samtaler som brukere allerede hadde slettet. Vanlige brukere vår ikke parter i saken. Dataene deres ble bevart likevel.

Den kjennelsen traff tilfeldigvis OpenAI først, men prinsippet gjelder enhver leverandør som beholder samtalene dine. Anthropic, Google og alle andre leverandører som beholder brukerdata, er underlagt samme type rettsprosess. En bevaringskjennelse, en stevning, en begjæring om bevisframleggelse. Enhver domstol i enhver jurisdiksjon der selskapet opererer, kan tvinge det til å produsere eller bevare poster det allerede holder.

Regelen er enkel. Hvis dataene finnes, kan de kreves utlevert. Det eneste reelle forsvaret er å ikke ha dataene i utgangspunktet.

Kontrakten din er ikke et søkespørsmål. Den er et dokument med navnet ditt, lønnen din og arbeidsgiveren din på. Og akkurat nå ligger den på noen andres maskin.

Med null datalagring blir den samme kontrakten behandlet, besvart og borte. Ingen kopi skrives til disk. Ingen ansatt kan åpne den senere, fordi senere ikke eksisterer. Ingen domstol kan tvinge fram utleveringen, fordi det ikke finnes noe å utlevere. Dataene dine er trygge fordi de aldri ble lagret.


Scene 2: Ideen din er produktet

Googles egen hjelpeside for Gemini er tydelig: "Ikke legg inn konfidensiell informasjon du ikke ønsker at en korrekturleser skal se eller at Google skal bruke til å forbedre tjenestene våre, inkludert maskinlæringsteknologier."

Det er ikke en advarsel om å fange opp ondsinnede aktører. Det er en innrømmelse av at samtalene du har med Gemini, er materiale for menneskelig gjennomgang og produktforbedring. De gjennomgåtte samtalene kan beholdes i tre år.

Dette betyr noe på grunn av hva folk faktisk bruker KI til. En ny idé. Et kundeforslag. En produktlinje ingen har annonsert. En tekst verden ikke har sett. Du limer den inn i modellen. Du idémyldrer. Du bearbeider. Du beskriver tingen du ennå ikke har lansert.

I den andre enden av samtalen sitter et selskap som lever av å forstå hva folk bygger, hva de spør etter, og hva de er villige til å betale for. Det samme selskapet som selger annonser, selger konkurrerende verktøy og selger egne KI-produkter. Den ulanserte ideen din er, i mest bokstavelig forstand, verdifull etterretning for dem.

Tredjepartsapper som aggregerer, forsterker eksponeringen. Et lite selskap pakker flere modeller bak ett grensesnitt, setter inn sin egen analyse og sine egne ansatte mellom deg og leverandøren, og arver tilgang til alt du sender inn. Tillitsflaten dobles. Tilsynet gjør ikke det.

Og ingenting av dette finnes isolert. Selskapene bak de største KI-produktene er de samme selskapene som har sporet deg på tvers av nettet i årevis. Annonsepikslene deres vet allerede hvilke nettsteder du besøker, hvilke produkter du vurderer, og hvilke problemer du prøver å løse. Å legge til KI-samtalene dine i den profilen er ikke et eget personvernspørsmål. Det er den samme profilen, med en langt rikere strøm.

Vi bygget Wysor fordi profilen ikke skal bli rikere. Les hvordan vi håndterer sporing på vår egen nettside →

Risikoen er ikke det du luftet for KI-en. Risikoen er ideen du limte inn før du vår klar til å vise den til noen.


Scene 3: Taleopptaket

Du går og snakker. Du forteller telefonen om et symptom, en kunde, en dårlig krangel.

Her er hva som skjer videre, avhengig av hvilken knapp du trykket på:

ChatGPT beholder lyden så lenge chatten finnes. Ikke treningsmateriale, men det er der.

Claude sender lyden til Anthropics servere, sletter den innen omtrent 24 timer, og kjører tekst-til-tale gjennom ElevenLabs, en tredjepart, uten noen offentlig avtale om null lagring mellom dem.

Gemini behandler vekkeordet lokalt, men sender selve forespørselen til Google. Google har allerede betalt 68 millioner dollar for å forlike et søksmål om hvordan de håndterte taledata.

Siri lagrer server-behandlede transkripsjoner i opptil to år. Apple forlikte sitt eget talesøksmål for 95 millioner dollar etter at Siri ble aktivert uten at noen så "Hey Siri."

Wysor Voice i iOS-appen transkriberer på selve enheten. Lyden forlater aldri telefonen din.


Scene 4: Søksmålet du ikke så komme

Februar 2026. En sak kalt United States v. Heppner fastslo at samtalene dine med KI-assistenter ikke er beskyttet av advokat-klient-privilegium og heller ikke er advokatarbeidsprodukt.

Domstolens resonnement vår enkelt: leverandørens retningslinjer tillater utlevering til myndigheter og kan tillate bruk til trening. Det finnes ingen rimelig forventning om konfidensialitet. Så alt på et KI-forbrukerabonnement kan potensielt hentes fram i rettslige prosesser.

Les det én gang til. Det du fortalte ChatGPT, er det samme en advokat kan stevne.


Hva "null datalagring" faktisk betyr

Null datalagring (ZDR) er en kontraktsmessig avtale med en KI-leverandør som endrer livssyklusen til samtalen din på teknisk nivå.

Under et vanlig forbrukerabonnement logges hver melding du sender, på leverandørens servere. Den beholdes i dager, måneder eller år. Den kan settes i kø for menneskelig gjennomgang. Den kan mates inn i neste modell. Sletting er en prosess som skjer senere, hvis den skjer i det hele tatt.

Under null datalagring skjer ingenting av dette. Meldingen din når leverandøren. Modellen produserer et svar. Svaret returneres til deg. I det øyeblikket forkastes forespørselen og svaret fra leverandørens infrastruktur. Ingen logger. Ingen sikkerhetskopier. Ingen beholdte treningsdata.

Automatiserte sikkerhetsklassifikatorer kjører fortsatt i det øyeblikket forespørselen sendes (alle større leverandører krever dette, og det gjør vi også, for å hindre at modellen brukes til alvorlig misbruk), men de kjøres på den aktive forespørselen og oppretter ikke en lagret oversikt over samtalen din etterpå.

Det finnes ingenting å stevne senere, fordi ingenting ble beholdt. Det finnes ingenting å trene på senere, fordi dataene ikke eksisterer ett sekund etter at svaret ble generert.

Dette er beskyttelsen store virksomheter betaler for og signerer innkjøpsavtaler for å få. Alle andre er overlatt til abonnementer der lagring er standard.


Så hva er forskjellen med Wysor?

Vi ber deg ikke stole på en bryter. Vi signerer kontrakter.

Null datalagring er standard på Wysor, ikke oppgraderingen. Hver leverandør vi ruter til (Claude, GPT-5, Gemini, Perplexity og hver åpen kildekode-modell vi tilbyr), er pakket inn i en dedikert avtale som setter lagring til teknisk minimum. For de fleste leverandører er det minimumet null. Samtalen din blir behandlet og er borte.

Vi trener aldri på dataene dine. Ikke på gratis. Ikke på betalt. Ikke på noe abonnement. Det står i kontrakten, ikke i en innstilling du må huske å slå av.

Mange av modellene våre kjører på servere i EU. Meldingen din besvares på europeisk infrastruktur, og dataene dine forlater ikke EU for å bli behandlet. Du kan se hvilke modeller som er EU-hostet på modeller-siden.

I iOS-appen kjører taletranskripsjon på selve enheten din.

Og du trenger ikke et innkjøpsteam for å få tilgang til noe av dette. Du registrerer deg.


Et raskt overblikk

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Standard lagring30 dager (opptil 5 år hvis trening er på)Så lenge kontoen er aktiv18 månederNull for de fleste leverandører
Trening på dataene dineOpt-in, på som standardPå som standardPå som standardAldri
Hvor dataene dine behandlesUSA (forbrukerstandard)USA (forbrukerstandard)USA (forbrukerstandard)EU for mange modeller
TaleLyd til servere, ca. 24 tLagret med chatSendt til GooglePå enheten (iOS-app)
Hvordan du får det20 dollar/måned20 dollar/måned20 dollar/månedGratisabonnement fungerer også

Hva dette egentlig betyr

KI-en din vet lønnen din, symptomene dine og det du er redd for å si til partneren din. Den vet også hvilket ulansert produkt du har, prisene dine, kundestrategien din og ideen ingen andre har hørt om ennå. Ingenting av dette er et funksjonsproblem. Alt sammen er et lagringsproblem.

Wysor beskytter begge deler. De personlige samtalene dine forblir dine. Det gjør også forretningssamtalene. Den nye ideen din er ikke materiale for noen andres treningsrunde. Kundearbeidet ditt er ikke etterretning for et selskap som også selger konkurrerende verktøy. Prisene dine er ikke en linje i en korrekturlesers kø.

Vi gir hver bruker, fra en gratiskonto til et fullt bedriftsabonnement, den typen personvernbeskyttelse som tidligere krevde en innkjøpsrunde.

Slett skal bety slett. Tale skal bli på telefonen din. Den neste ideen din skal forbli din.


Fortsett å lese

Kom i gang med Wysor →


Alle påstander er hentet fra offisielle personvernretningslinjer, bruksvilkår, rettsdokumenter og leverandørdokumentasjon per februar 2026.