Dine stemmenotater bliver sendt til Apple. Vores bliver ikke.
Technology

Dine stemmenotater bliver sendt til Apple. Vores bliver ikke.

Du taler allerede med AI. Uanset om det er Claude, ChatGPT eller Gemini — du stiller det spørgsmål, giver det kontekst, arbejder dig igennem problemer. Og i stigende grad gør du det med stemmen. Det er hurtigere end at skrive. Det er mere naturligt. Det er sådan, de fleste tænker bedst.

Men her er, hvad der faktisk sker, når du gør det: din stemme — den faktiske optagelse af dig, der taler — bliver sendt til en server, før den overhovedet er transskriberet. Apple behandler den. Google behandler den. AI-udbyderen behandler den. Din stemme ender på flere servere, før du overhovedet ser svaret.

Det er ikke et kompromis om privatliv, du har sagt ja til. Det er et, du ikke vidste, du indgik.

Wysors stemmechat løser dette. Transskription kører udelukkende på din enhed. Kun teksten når frem til AI'en — og selv den er beskyttet af vores aftaler om nul dataopbevaring.


Din stemme er mere følsom end din tekst

Når du skriver en besked til en AI, deler du tekst. Det er allerede værd at beskytte — og det gør vi. Men når du bruger stemme, deler du noget mere. Din faktiske stemme. Tonen, rytmen, tøvningerne. En biometrisk identifikator, der er unikt din.

De fleste tænker ikke over dette, fordi stemmeinput føles som at skrive med munden. Men dataene er fundamentalt anderledes. Tekst er, hvad du sagde. Lyd er hvem du er.

Hver gang du bruger Siri, Google Assistant eller stemmefunktionen i ChatGPTs app, bliver den lyd uploadet og behandlet på en andens servere. Google opbevarer stemmedata i op til 18 måneder som standard. Apple's Siri-optagelser blev gennemgået af menneskelige underleverandører, før det blev et PR-problem.

Tænk over, hvad du faktisk siger højt til AI. Forretningsbeslutninger. Kundenavne. Konkurrencestrategi. Tal, du ikke ville sætte i en e-mail. Du afleverer en optagelse af dig selv, der siger de ting, til en server, du ikke kontrollerer — og det burde ikke være normalt.


Hvordan Wysor håndterer stemme anderledes

Når du trykker på mikrofonen i Wysor og begynder at tale, sker følgende: din telefons neurale motor — den dedikerede ML-hardware, der er indbygget i alle moderne smartphones — kører en talegenkendelsesmodel lokalt. Din stemme omsættes til tekst på enheden i din hånd. Lyden forlader aldrig din telefon.

Derefter sendes den transskriberede tekst til den AI-model, du chatter med — Claude, GPT-5, Gemini, hvad end du har valgt — under vores databehandlingsaftaler. Nul opbevaring. Ingen træning. Udbyderen behandler din besked og kasserer den.

Resultatet er, at ingen nogensinde modtager en optagelse af din stemme. Ikke os. Ikke AI-udbyderen. Ingen. Det eneste, der rejser over netværket, er tekst — og selv den er beskyttet.

Det betyder også, at det virker offline. Ingen Wi-Fi, intet mobilsignal, intet problem. Transskriptionen afhænger ikke af en internetforbindelse, fordi der ikke er nogen server involveret. Du kunne være i et fly, og stemmechat virker stadig. Teksten køer bare, indtil du er online igen.


Din telefon har kunnet gøre dette i årevis

Apple's Neural Engine, Qualcomm's AI-acceleratorer — moderne telefoner leveres med dedikeret hardware til at køre maskinlæringsmodeller. Talegenkendelse er en af de ting, denne hardware håndterer bedst. Transskription på enheden er ikke et gennembrud. Det er et teknisk valg, som de fleste apps endnu ikke har truffet.

Vi traf det. Vi optimerede en talemodel til at køre lokalt på din telefon, så stemmechat fungerer uden at sende lyd nogen steder. Det virker offline, det er hurtigt, og din stemme forbliver din.


Privatliv som arkitektur, ikke politik

Alle apps har en privatlivspolitik. Alle siger, de "tager dit privatliv alvorligt." Og så uploader de din lyd til deres servere, fordi det er sådan, deres produkt er bygget.

Vi ville ikke skrive en bedre privatlivspolitik. Vi ville bygge stemmechat, hvor privatlivspolitikken knap nok betyder noget — fordi de følsomme data aldrig når frem til andre end dig.

Der er ingen opbevaringsperiode at tænke over, ingen fravalg at huske, ingen indstilling at slå til eller fra. Dine stemmedata eksisterer simpelthen ikke uden for din telefon. Det er ikke en politik — det er sådan, systemet er bygget.


Den hurtigste måde at chatte med AI på — uden at opgive din stemme

Stemmeinput er ikke bare mere privat i Wysor. Det er hurtigere. Fordi transskription sker lokalt, er der ingen netværksrundtur for tale-til-tekst-trinnet. Du taler, tekst dukker op, og den sendes til AI'en. En server mindre i kæden betyder en kilde mindre til forsinkelse.

Det er den mest naturlige måde at bruge AI på din telefon. Du tænker højt, ordene vises som tekst, og du er i en samtale med de mest kapable modeller, der findes. Ingen tastning, intet tastatur, ingen lydfiler, der ligger på en server et eller andet sted.

Sig det. Send det. Det er det hele.


Læs videre

Download appen →