
Ihre KI weiß mehr, als Sie denken: Ein Datenschutzvergleich von Claude, ChatGPT und Gemini
Ihre KI weiß mehr, als Sie denken: Ein Datenschutzvergleich von Claude, ChatGPT und Gemini
Jeden Tag fügen Sie Verträge, Gehälter, medizinische Fragen, juristische Dokumente und Geschäftsstrategien in KI-Tools ein. Sie diktieren Sprachnotizen. Sie vertrauen der KI mehr als den meisten Ihrer Kollegen.
Aber was passiert mit allem, was Sie ihr anvertrauen?
Wir haben die Datenschutzrichtlinien gelesen, damit Sie es nicht müssen. Hier ist, was wir herausgefunden haben — und warum genau das der Grund ist, weshalb wir Wysor entwickelt haben.
Ihr 20-Dollar-Abo kauft Ihnen keinen Datenschutz
Claude Pro. ChatGPT Plus. Gemini Advanced. Man könnte annehmen, dass 20 Dollar im Monat besseren Datenschutz bieten als die kostenlose Version.
Falsch gedacht. Ob kostenlos oder bezahlt — für alle Privatkunden gelten dieselben Richtlinien: Ihre Unterhaltungen werden für das Training verwendet, sie können von Menschen eingesehen werden, und sie werden weit länger gespeichert, als Sie vermuten.
Der einzige Weg, echten Datenschutz von diesen Anbietern zu bekommen, ist ein ausgehandelter Enterprise-Vertrag — andere Bedingungen, andere Preise und ein Vertriebsteam zwischen Ihnen und Ihren Daten.
Wir haben Wysor entwickelt, damit Sie diesen Anruf nicht tätigen müssen.
Wie lange Ihre Unterhaltungen auf deren Servern liegen
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Standard-Speicherdauer | 30 Tage (oder 5 Jahre bei aktiviertem Training) | Unbegrenzt | 18 Monate | Maximal 30 Tage (OpenAI). Andere: null. |
| Nach dem „Löschen" | 30 Tage bis zur tatsächlichen Entfernung | 30 Tage bis zur tatsächlichen Entfernung | Mindestens 72 Stunden | Minimiert durch dedizierte DPAs. |
Claude speichert Ihre Daten standardmäßig 30 Tage. Doch im Oktober 2025 machte Anthropic das Training-Opt-in still und leise zur Standardeinstellung — wer die Aufforderung übersehen hat, dessen Unterhaltungen werden möglicherweise bis zu 5 Jahre gespeichert.
ChatGPT speichert alles für immer. Ihre Unterhaltungen verbleiben in OpenAIs Systemen, bis Sie sie manuell löschen — und dann dauert die tatsächliche Entfernung nochmals 30 Tage.
Gemini speichert 18 Monate lang. Selbst wenn Sie „Aktivität speichern" deaktivieren, behält Google Ihre Daten noch 72 Stunden. Es gibt keine echte Null-Speicherung bei irgendeinem Gemini-Privatkundenplan.
Wysors dedizierte DPAs mit jedem Anbieter minimieren die Speicherdauer auf das absolute technische Minimum — und bei den meisten Anbietern ist das null. Ihre Unterhaltungen bleiben in Ihrem Workspace, statt monatelang oder jahrelang auf Anbieter-Servern zu liegen.
Alle drei nutzen Ihre Unterhaltungen zum Trainieren ihrer Modelle
Standardmäßig. Alle drei.
- Claude: Opt-in seit Oktober 2025 — aber Anthropic hat es für Nutzer, die nicht aktiv reagiert haben, standardmäßig auf „an" gesetzt
- ChatGPT: Standardmäßig aktiviert. Versteckt unter Einstellungen > Datenkontrollen
- Gemini: Standardmäßig aktiviert. Deaktivieren Sie „Aktivität speichern", um sich abzumelden
Der Vertrag, den Sie eingefügt haben? Jetzt Trainingsdaten. Die Gehaltsverhandlung? Trainingsdaten. Die medizinische Frage, die Ihnen beim Arzt zu peinlich war? Trainingsdaten.
Der einzige Weg, das zu unterbinden, ist ein Enterprise-Plan — und das bedeutet ein Gespräch ab 25.000 Dollar aufwärts mit einem Vertriebsteam.
Wysor trainiert niemals mit Ihren Daten. Nicht im kostenlosen Plan. Nicht im bezahlten. In keinem Plan. Es ist vertraglich festgelegt, kein Schalter zum Umlegen.
Jemand bei Google liest vielleicht gerade Ihre Chats
Das schockiert die meisten.
Google ist zumindest ehrlich. Sie warnen Gemini-Nutzer ausdrücklich: „Geben Sie keine vertraulichen Informationen ein, die ein Prüfer nicht sehen sollte." Von Menschen überprüfte Unterhaltungen werden bis zu 3 Jahre gespeichert, losgelöst von Ihrem Konto — und das Löschen der Unterhaltung löscht nicht die überprüfte Kopie.
OpenAI überprüft stichprobenartig 1-2 % aller Unterhaltungen durch Menschen, plus alles, was von automatisierten Systemen markiert wird.
Anthropic leitet markierte Claude-Unterhaltungen an ihr Trust-&-Safety-Team weiter. Diese markierten Ein- und Ausgaben können bis zu 2 Jahre aufbewahrt werden, Sicherheitsbewertungen sogar bis zu 7 Jahre.
Bei Wysor sieht kein Mensch bei einem KI-Anbieter jemals Ihre Unterhaltungen. Unsere DPAs verbieten vertraglich die menschliche Überprüfung, Stichprobenziehung und Markierung. Niemand liest Ihre Chats.
„Löschen" bedeutet nicht das, was Sie denken
- Gemini: Wenn Ihre Unterhaltung vor dem Löschen zur menschlichen Überprüfung ausgewählt wurde, bleibt diese Kopie bis zu 3 Jahre erhalten. Sie können sie nicht entfernen. Sie wissen möglicherweise nicht einmal, dass sie existiert.
- Claude: Markierte Unterhaltungen werden bis zu 2 Jahre aufbewahrt. Löschen ändert daran nichts.
- ChatGPT: 2025 ordnete ein Bundesrichter in NYT v. OpenAI an, dass OpenAI sämtliche Unterhaltungsdaten aufbewahren muss — einschließlich Chats, die Nutzer ausdrücklich gelöscht hatten — als potenzielles Beweismaterial. Nutzer der Tarife Free, Plus, Pro und Team waren betroffen. Enterprise- und API-Kunden waren diesmal ausgenommen.
Bei Wysor bedeutet Löschen auch Löschen. Wenn Anbieter Ihre Daten nicht über das minimale Verarbeitungsfenster hinaus vorhalten, gibt es nichts zu markieren, nichts für Rechtsstreitigkeiten aufzubewahren und nichts, das in drei Jahren noch auf einem Server liegt.
Ein Bundesrichter hat gerade entschieden, dass Ihre KI-Chats nicht privilegiert sind
Im Februar 2026 stellte United States v. Heppner fest, dass Unterhaltungen mit Claude AI nicht durch das Anwaltsgeheimnis geschützt sind und kein Arbeitsergebnis darstellen.
Die Begründung: Anthropics Richtlinien erlauben die Weitergabe an Regierungsbehörden und gestatten die Nutzung für das Modelltraining. Es gibt keine berechtigte Vertraulichkeitserwartung.
Der Präzedenzfall ist eindeutig: Jede KI-Unterhaltung in einem Privatkunden-Tarif ist potenziell in Gerichtsverfahren offenlegbar.
Genau deshalb ist die Minimierung der anbieterseitigen Speicherung so wichtig. Ein Gericht kann einen Anbieter nicht zur Herausgabe von Daten zwingen, die nie gespeichert wurden.
Ihre Stimme gelangt an Orte, denen Sie nicht zugestimmt haben
KI-Sprachfunktionen sind beliebt. Die Datenpipelines dahinter sind alarmierend.
Claude Voice
- Audio wird an Anthropics Server gesendet und innerhalb von ca. 24 Stunden gelöscht
- Wenn Claude antwortet, nutzt es ElevenLabs — einen Drittanbieter — für die Sprachsynthese. Ihr Gesprächsinhalt wird an deren Server gesendet
- Der Anbieter für Sprache-zu-Text wird nicht öffentlich genannt
- Keine öffentliche Zero-Data-Retention-Vereinbarung zwischen Anthropic und ElevenLabs
ChatGPT Voice
- Audio- und Videoaufnahmen werden zusammen mit Ihrer Unterhaltung gespeichert, solange der Chat existiert
- OpenAI ist der einzige Anbieter, der Ihre tatsächlichen Audioaufnahmen standardmäßig speichert
- Audio wird nicht für das Training verwendet, aber Texttranskripte möglicherweise schon, wenn Sie sich nicht abgemeldet haben
Gemini Voice
- Googles „Ephemeral Learning" klingt gut — Audio wird im RAM verarbeitet und gelöscht. Aber das gilt nur für das Training des Aktivierungsworts („Hey Google"), nicht für Ihre tatsächlichen Anfragen
- Ihre Sprachanfragen werden weiterhin an Googles Server gesendet. 2019 wurden Auftragnehmer dabei ertappt, wie sie über 1.000 Aufnahmen abhörten, darunter versehentliche Aktivierungen, die Schlafzimmergespräche und medizinische Informationen erfassten. Google zahlte einen Vergleich über 68 Millionen Dollar
- Eine separate Sammelklage zu versehentlichen Aktivierungen von 2016 bis 2022 ist auch 2026 noch anhängig
Apple Siri
- Serververarbeitete Anfragen: Apple speichert Transkripte bis zu 2 Jahre für alle Nutzer
- Auf dem Gerät verarbeitete Diktate bleiben lokal, aber Apple erfasst dennoch Metadaten — Anfragekategorie, Geräteinformationen, Leistungsstatistiken
- Wenn Sie versehentlich „Siri verbessern" aktivieren, speichert Apple Ihre tatsächlichen Sprachaufnahmen bis zu 2 Jahre, einsehbar für Mitarbeiter
- Apple behauptet, ein „zufälliger, rotierender Identifikator" schütze die Anonymität. Doch gleichzeitig werden Ihre IP-Adresse, Ihr Standort, Ihre Kontakte und Geräteinformationen bei jeder Anfrage erfasst — das ist Pseudonymisierung, keine Anonymisierung
- Apple zahlte einen Vergleich über 95 Millionen Dollar wegen versehentlicher Siri-Aktivierungen
Wysor Voice
- Alles passiert auf Ihrem Gerät. Ihr Audio verlässt nie Ihr Telefon
- Keine Server. Keine Drittanbieter. Keine Cloud-Verarbeitung. Funktioniert offline
- Wir können Ihre Sprachdaten nicht weitergeben, weil wir sie nie erhalten
Auch Enterprise-Pläne werden Sie nicht retten
Die großen Anbieter werden Ihnen ein Upgrade empfehlen. Aber selbst wenn Sie die Kosten verkraften — es gibt ein Problem, das sie nicht erwähnen: Wenn Ihre Daten auf deren Servern existieren, kann ein Gericht deren Herausgabe anordnen.
| Claude Enterprise | ChatGPT Enterprise | Gemini Workspace | Wysor | |
|---|---|---|---|---|
| Kosten für ZDR | Nur API, auf Genehmigung | Ab 25.000 Dollar, Sondergenehmigung | Nicht Standard, erfordert Konfiguration | Nichts. Es ist der Standard. |
| Datenexpositions-Fenster | Unbegrenzt (markierte Daten werden aufbewahrt) | Unbegrenzt (sofern nicht ZDR verhandelt) | Unbegrenzt (sofern nicht konfiguriert) | Maximal 30 Tage (nur OpenAI). Andere: null. |
| Menschliche Überprüfung | Markierte Unterhaltungen werden weiterhin überprüft | Markierte (keine mit ZDR) | Keine | Keine. Vertraglich garantiert. |
Sie können 25.000 Dollar ausgeben und monatelang verhandeln, um Schutzmaßnahmen zu erhalten, bei denen Ihre Daten immer noch auf den Servern anderer liegen. Oder Sie nutzen Wysor, wo dedizierte DPAs die Anbieter-Speicherung auf das technische Minimum reduzieren, kein Mensch Ihre Unterhaltungen überprüft und Sie nie mit einem Vertriebsteam sprechen müssen, um Datenschutz zu erhalten, der von Anfang an Standard sein sollte.
Was können Sie also konkret tun?
Gerade jetzt fügen Ihre Mitarbeiter Verträge in ChatGPT ein, besprechen Strategien mit Claude und laden Kundendaten in Gemini hoch. Jede einzelne dieser Unterhaltungen wird gespeichert, kann überprüft, zum Training verwendet und vor Gericht offengelegt werden.
Sie haben zwei Möglichkeiten.
Option A: KI am Arbeitsplatz verbieten. Zusehen, wie Ihre Wettbewerber Sie überholen, während Ihr Team sie trotzdem auf privaten Geräten nutzt — jetzt ganz ohne Aufsicht und ganz ohne Schutz.
Option B: Geben Sie Ihrem Team Wysor. Alle großen Modelle — GPT-5, Claude, Gemini, Perplexity — in einem Workspace. Dedizierte DPAs, die die Anbieter-Speicherung minimieren. Keine menschliche Überprüfung. Kein Training. Sprachtranskription auf dem Gerät. Vollständige DSGVO-Konformität. Ein Audit-Trail statt Daten, die über vier Anbieter verstreut sind.
Die Unternehmen, die das zuerst verstehen, vermeiden nicht nur Risiken. Sie bewegen sich schneller als alle, die noch darüber streiten, ob man ChatGPT blockieren soll.
Weiterlesen
- Vollständiger Datenschutz: Ihre Daten verlassen nie Ihre Kontrolle — Wie Wysor erstklassige KI mit vertraglichen Datenschutzgarantien liefert
- Ihre Sprachnotizen werden an Apple gesendet. Unsere nicht. — Transkription auf dem Gerät, die nie Ihr Telefon verlässt
- Schatten-KI: Wenn Ihre Mitarbeiter heimlich ChatGPT nutzen — Warum ein KI-Verbot nicht funktioniert und was stattdessen hilft
- Wir haben den KI-Workspace gebaut, den es schon vor 3 Jahren hätte geben sollen — Chat, Agenten, E-Mail, Kalender, Recherche, Sprache und Bilder an einem Ort
Alle Angaben basieren auf offiziellen Datenschutzrichtlinien, Nutzungsbedingungen, Gerichtsdokumenten und Anbieterdokumentation, Stand Februar 2026.


