Deine Sprachnotizen werden an Apple gesendet. Unsere nicht.
Du sprichst bereits mit KI. Ob Claude, ChatGPT oder Gemini — du stellst Fragen, gibst Kontext, arbeitest Probleme durch. Und immer häufiger machst du das per Sprache. Es ist schneller als Tippen. Es ist natürlicher. So denken die meisten Menschen am besten.
Aber hier ist, was tatsächlich passiert, wenn du das tust: Deine Stimme — die eigentliche Aufnahme von dir beim Sprechen — wird an einen Server gesendet, bevor sie überhaupt transkribiert wird. Apple verarbeitet sie. Google verarbeitet sie. Der KI-Anbieter verarbeitet sie. Deine Stimme landet auf mehreren Servern, bevor du überhaupt die Antwort siehst.
Das ist kein Datenschutz-Kompromiss, dem du zugestimmt hast. Es ist einer, von dem du nicht wusstest, dass du ihn eingehst.
Wysors Sprachchat löst dieses Problem. Die Transkription läuft vollständig auf deinem Gerät. Nur der Text erreicht die KI — und selbst dieser ist durch unsere Vereinbarungen zur Null-Datenspeicherung geschützt.
Deine Stimme ist sensibler als dein Text
Wenn du eine Nachricht an eine KI tippst, teilst du Text. Das ist bereits schützenswert — und wir tun das. Aber wenn du Sprache verwendest, teilst du etwas mehr. Deine tatsächliche Stimme. Den Ton, den Rhythmus, die Zögerungen. Ein biometrisches Merkmal, das einzigartig dir gehört.
Die meisten Menschen denken nicht darüber nach, weil sich Spracheingabe wie Tippen mit dem Mund anfühlt. Aber die Daten sind grundlegend anders. Text ist, was du gesagt hast. Audio ist, wer du bist.
Jedes Mal, wenn du Siri, Google Assistant oder die Sprachfunktion in der ChatGPT-App verwendest, wird dieses Audio hochgeladen und auf fremden Servern verarbeitet. Google speichert Sprachdaten standardmäßig bis zu 18 Monate. Apples Siri-Aufnahmen wurden von menschlichen Auftragnehmern überprüft, bevor es zu einem PR-Problem wurde.
Denk darüber nach, was du tatsächlich laut zur KI sagst. Geschäftsentscheidungen. Kundennamen. Wettbewerbsstrategie. Zahlen, die du nicht in eine E-Mail schreiben würdest. Du übergibst eine Aufnahme von dir, wie du diese Dinge sagst, an einen Server, den du nicht kontrollierst — und das sollte nicht normal sein.
Wie Wysor mit Sprache anders umgeht
Wenn du in Wysor auf das Mikrofon tippst und zu sprechen beginnst, passiert Folgendes: Die Neural Engine deines Handys — die dedizierte ML-Hardware, die in jedem modernen Smartphone verbaut ist — führt ein Spracherkennungsmodell lokal aus. Deine Stimme wird auf dem Gerät in deiner Hand in Text umgewandelt. Das Audio verlässt nie dein Handy.
Dann wird der transkribierte Text an das KI-Modell gesendet, mit dem du chattest — Claude, GPT-5, Gemini, was auch immer du gewählt hast — unter unseren Datenverarbeitungsvereinbarungen. Null Speicherung. Kein Training. Der Anbieter verarbeitet deine Nachricht und verwirft sie.
Das Ergebnis ist, dass niemand jemals eine Aufnahme deiner Stimme erhält. Nicht wir. Nicht der KI-Anbieter. Niemand. Das Einzige, was über das Netzwerk übertragen wird, ist Text — und selbst dieser ist geschützt.
Das bedeutet auch, dass es offline funktioniert. Kein WLAN, kein Mobilfunksignal, kein Problem. Die Transkription ist nicht auf eine Internetverbindung angewiesen, weil kein Server beteiligt ist. Du könntest im Flugzeug sitzen und der Sprachchat funktioniert trotzdem. Der Text wird einfach in die Warteschlange gestellt, bis du wieder online bist.
Dein Handy kann das seit Jahren
Apples Neural Engine, Qualcomms KI-Beschleuniger — moderne Handys werden mit dedizierter Hardware für maschinelles Lernen ausgeliefert. Spracherkennung ist eine der Aufgaben, die diese Hardware am besten bewältigt. Transkription auf dem Gerät ist kein Durchbruch. Es ist eine technische Entscheidung, die die meisten Apps noch nicht getroffen haben.
Wir haben sie getroffen. Wir haben ein Sprachmodell optimiert, das lokal auf deinem Handy läuft, sodass der Sprachchat funktioniert, ohne Audio irgendwohin zu senden. Es funktioniert offline, es ist schnell, und deine Stimme bleibt deine.
Datenschutz als Architektur, nicht als Richtlinie
Jede App hat eine Datenschutzrichtlinie. Jede sagt, sie nehme „deinen Datenschutz ernst". Und dann laden sie dein Audio auf ihre Server hoch, weil ihr Produkt so gebaut ist.
Wir wollten keine bessere Datenschutzrichtlinie schreiben. Wir wollten einen Sprachchat bauen, bei dem die Datenschutzrichtlinie kaum eine Rolle spielt — weil die sensiblen Daten nie jemanden außer dir erreichen.
Es gibt keine Aufbewahrungsfrist, über die man nachdenken muss, kein Opt-out, an das man sich erinnern muss, keine Einstellung, die man umschalten muss. Deine Sprachdaten existieren einfach nicht außerhalb deines Handys. Das ist keine Richtlinie — so ist das System gebaut.
Der schnellste Weg, mit KI zu chatten — ohne deine Stimme preiszugeben
Spracheingabe ist in Wysor nicht nur privater. Sie ist schneller. Weil die Transkription lokal stattfindet, gibt es keinen Netzwerk-Roundtrip für den Sprache-zu-Text-Schritt. Du sprichst, Text erscheint und wird an die KI gesendet. Ein Server weniger in der Kette bedeutet eine Latenzquelle weniger.
Es ist die natürlichste Art, KI auf deinem Handy zu nutzen. Du denkst laut, die Worte erscheinen als Text, und du befindest dich in einem Gespräch mit den leistungsfähigsten verfügbaren Modellen. Kein Tippen, keine Tastatur, keine Audiodateien, die irgendwo auf einem Server liegen.
Sprich es. Sende es. Das war's.
Weiterlesen
- Vollständige Privatsphäre: Deine Daten verlassen nie deine Kontrolle — Sprachtranskription ist nur ein Teil unserer Privacy-First-Architektur.
- Wir haben den KI-Workspace gebaut, den es schon vor 3 Jahren hätte geben sollen — Erfahre, wie private Spracheingabe in den vollständigen KI-Workspace mit E-Mail, Agenten und mehr passt.



