Din AI ved mere, end du tror: En privatlivssammenligning af Claude, ChatGPT og Gemini
Technology

Din AI ved mere, end du tror: En privatlivssammenligning af Claude, ChatGPT og Gemini

Hver dag indsætter du kontrakter, lønninger, medicinske spørgsmål, juridiske dokumenter og forretningsstrategier i AI. Du dikterer stemmenotater til den. Du stoler mere på den end de fleste af dine kollegaer.

Men hvad sker der med alt det, du fortæller den?

Vi læste privatlivspolitikkerne, så du ikke behøver. Her er hvad vi fandt — og hvorfor det er præcis grunden til, at vi byggede Wysor.


Forbrugerplaner og enterprise-planer er forskellige produkter

Claude Pro. ChatGPT Plus. Gemini Advanced. At betale 20 $/måned giver dig bedre modeller og højere forbrugsgrænser, men datahåndteringspolitikkerne på forbrugerplaner er stort set de samme som på de gratis niveauer.

For at få kontraktmæssig privatlivsbeskyttelse — DPA'er, nul dataopbevaring, træningsundtagelser — kræver de fleste udbydere en enterprise-aftale. Det betyder en længere indkøbsproces og højere prissætning.

Wysor giver dig disse enterprise-niveau beskyttelser på alle planer, inklusive den gratis.


Hvor længe dine samtaler ligger på deres servere

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Standard opbevaring30 dage (eller 5 år, hvis træning er tilvalgt)Bevares, mens kontoen er aktiv18 månederMaks. 30 dage (OpenAI). Andre: nul.
Efter du sletter30 dage til fjernelse30 dage til fjernelseMinimum 72 timerMinimeret via dedikerede DPA'er.

Claude opbevarer dine data i 30 dage som standard. I oktober 2025 gjorde Anthropic træning til opt-in som standard — hvilket betyder, at hvis du ikke reagerede på prompten, kan dine samtaler blive gemt i op til 5 år.

ChatGPT opbevarer samtaler, mens din konto er aktiv. Efter du sletter en samtale, tager det OpenAI op til 30 dage at fjerne den fuldstændigt fra deres systemer.

Gemini opbevarer samtaler i op til 18 måneder. Selv med "Behold aktivitet" slået fra, holder Google stadig data i mindst 72 timer.

Wysors dedikerede DPA'er med hver udbyder minimerer opbevaring til det tekniske minimum — for de fleste udbydere er det nul. Dine samtaler bor i dit arbejdsområde, ikke på udbydernes servere i måneder.


Træningsstandarder varierer efter udbyder

Som standard tillader de fleste forbruger-AI-planer, at dine samtaler bruges til modelforbedring:

  • Claude: Opt-in siden oktober 2025, men Anthropic satte det som standard til "til" for brugere, der ikke aktivt svarede
  • ChatGPT: Til som standard. Kan deaktiveres i Indstillinger > Datakontrol
  • Gemini: Til som standard. Deaktivér "Behold aktivitet" for at fravælge

Enterprise- og API-niveauer hos alle tre udbydere udelukker typisk træning som standard. Men individuelle brugere og små teams på forbrugerplaner skal konfigurere dette selv.

Wysor træner aldrig på dine data. Ikke på gratis. Ikke på betalt. Ikke på nogen plan. Det er kontraktmæssigt, ikke en knap.


Praksis for menneskelig gennemgang på tværs af udbydere

Alle tre store udbydere har en eller anden form for menneskelig gennemgang i deres datapipeline:

Google er åben omkring det — de rådgiver eksplicit Gemini-brugere til ikke at indtaste fortrolige oplysninger. Menneskeligt gennemgåede samtaler kan gemmes i op til 3 år, adskilt fra din konto.

OpenAI angiver i deres EU-privatlivspolitik, at de kan gennemgå indhold til sikkerheds- og overholdelsesformål. At fravælge træning fravælger ikke gennemgang. På API- og enterprise-niveauer adskiller disse praksisser sig — OpenAI tilbyder nul dataopbevaring for kvalificerende API-kunder.

Anthropic sender flaggede Claude-samtaler til deres Trust & Safety-team. Flagget input og output kan opbevares i op til 2 år, med sikkerhedsscorer gemt i op til 7 år.


Hvad "slet" betyder hos hver udbyder

Slettetidslinjer varierer, og i nogle tilfælde kan data bestå længere end forventet:

  • Gemini: Hvis en samtale blev valgt til menneskelig gennemgang før sletning, kan den kopi bestå i op til 3 år separat.
  • Claude: Flaggede samtaler opbevares i op til 2 år uanset sletning.
  • ChatGPT: Standard sletning tager op til 30 dage. I visse retssager (som NYT v. OpenAI i 2025) har domstole pålagt udbydere at bevare samtaledata — en juridisk realitet, der kan påvirke enhver udbyder, ikke kun OpenAI.

Med Wysor betyder slet, at det er slettet. Når udbydere ikke opbevarer dine data ud over det minimale behandlingsvindue, er der intet at bevare.


AI-samtaler og juridisk fortrolighed

I februar 2026 fastslog United States v. Heppner, at samtaler med AI-assistenter ikke er beskyttet af advokat-klient fortrolighed og ikke udgør arbejdsprodukt.

Begrundelsen: udbyderpolitikker tillader potentiel videregivelse til myndigheder og kan tillade brug til modelforbedring. Retten fandt ingen rimelig forventning om fortrolighed.

Denne præcedens gælder på tværs af udbydere — enhver AI-samtale på en forbrugerplan er potentielt fremskaffelig i retssager. At minimere udbydersideopbevaring reducerer denne eksponering.


Håndtering af stemmedata

AI-stemmefunktioner er i stigende grad populære. Her er hvordan hver udbyder håndterer lyddata.

Claude Voice

  • Lyd sendt til Anthropics servere, derefter slettet inden for ~24 timer
  • Tekst-til-tale bruger ElevenLabs (en tredjepartsudbyder)
  • Tale-til-tekst-udbyder er ikke offentligt oplyst
  • Ingen offentlig Zero Data Retention-aftale mellem Anthropic og ElevenLabs

ChatGPT Voice

  • Lyd- og videoklip gemmes sammen med samtalen, så længe chatten eksisterer
  • Lyd bruges ikke til træning, men teksttransskriptioner kan bruges, hvis træning er aktiveret

Gemini Voice

  • Googles "Ephemeral Learning" behandler wake-word-lyd i RAM, men faktiske stemmeanmodninger sendes til Googles servere
  • Google har stået over for retssager om håndtering af stemmedata, herunder et forlig på 68 mio. $ relateret til privatlivspraksis

Apple Siri

  • Serverbehandlede anmodninger: Apple gemmer transskriptioner i op til 2 år
  • Diktering på enheden forbliver lokal, men Apple indsamler metadata (anmodningskategori, enhedsinfo, ydelsesstatistik)
  • "Forbedr Siri"-tilvalg tillader Apple at beholde stemmeoptagelser i op til 2 år
  • Apple indgik forlig i en retssag på 95 mio. $ over utilsigtede Siri-aktiveringer

Wysor Voice

  • Alt sker på din enhed. Lyd forlader aldrig din telefon
  • Ingen servere. Ingen tredjeparter. Ingen cloud-behandling. Virker offline
  • Vi kan ikke lække dine stemmedata, fordi vi aldrig modtager dem

Enterprise-planer: stærk beskyttelse, højere pris

Alle tre udbydere tilbyder enterprise-niveauer med væsentligt bedre privatlivsbeskyttelse — DPA'er, træningsundtagelser og i nogle tilfælde nul dataopbevaring. Disse er solide muligheder for organisationer med budgettet og indkøbsressourcerne.

Claude EnterpriseChatGPT EnterpriseGemini WorkspaceWysor
Nul dataopbevaringAPI, efter godkendelseTilgængelig for kvalificerende kunderKonfigurerbarStandard på alle planer
Menneskelig gennemgangReduceret (flagget data kan stadig gennemgås)Ingen med ZDRIngenIngen. Kontraktmæssigt garanteret.
IndkøbsprocesEnterprise-salgEnterprise-salgEnterprise-salgSelvbetjent tilmelding

Enterprise-planer er det rigtige valg for store organisationer. Men for enkeltpersoner, små teams og virksomheder, der vil have de samme beskyttelser uden en indkøbscyklus, gør Wysor dem tilgængelige fra dag ét.


Hvad det betyder for dig

Dine medarbejdere bruger AI hver dag — til kontrakter, strategi, kundekommunikation. Spørgsmålet er, om disse samtaler er beskyttet af kontraktmæssige garantier eller bare standardindstillinger.

Wysor giver enhver bruger — fra gratis til premium — adgang til GPT-5, Claude, Gemini og Perplexity i ét arbejdsområde, bakket op af dedikerede DPA'er, der minimerer udbyderopbevaring, forbyder træning og forhindrer menneskelig gennemgang. Plus transskription på enheden, e-mailhåndtering og et komplet revisionsspor.

Enterprise-niveau privatliv bør ikke kræve en enterprise-kontrakt.


Læs videre

Kom i gang med Wysor →


Alle påstande er hentet fra officielle privatlivspolitikker, servicevilkår, retsdokumenter og udbyderdokumentation pr. februar 2026.