Ihre KI weiß mehr, als Sie denken: Ein Datenschutzvergleich von Claude, ChatGPT und Gemini
Jeden Tag fügen Sie Verträge, Gehälter, medizinische Fragen, juristische Dokumente und Geschäftsstrategien in KI-Tools ein. Sie diktieren Sprachnotizen. Sie vertrauen der KI mehr als den meisten Ihrer Kollegen.
Aber was passiert mit allem, was Sie ihr anvertrauen?
Wir haben die Datenschutzrichtlinien gelesen, damit Sie es nicht müssen. Hier ist, was wir herausgefunden haben — und warum genau das der Grund ist, weshalb wir Wysor entwickelt haben.
Consumer- und Enterprise-Pläne sind unterschiedliche Produkte
Claude Pro. ChatGPT Plus. Gemini Advanced. 20 Dollar im Monat zahlen bringt Ihnen bessere Modelle und höhere Nutzungslimits, aber die Datenverarbeitungsrichtlinien bei Consumer-Plänen bleiben weitgehend die gleichen wie bei den kostenlosen Tarifen.
Um vertragliche Datenschutzgarantien zu erhalten — AVVs, keine Datenspeicherung, Training-Ausschlüsse — erfordern die meisten Anbieter einen Enterprise-Vertrag. Das bedeutet längere Beschaffungszyklen und höhere Preise.
Wysor gibt Ihnen diese Enterprise-Schutzmaßnahmen bei jedem Tarif, einschließlich dem kostenlosen.
Wie lange Ihre Unterhaltungen auf deren Servern liegen
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Standard-Speicherdauer | 30 Tage (oder 5 Jahre bei aktiviertem Training) | Gespeichert, solange das Konto aktiv ist | 18 Monate | Maximal 30 Tage (OpenAI). Andere: null. |
| Nach dem Löschen | 30 Tage bis zur tatsächlichen Entfernung | 30 Tage bis zur tatsächlichen Entfernung | Mindestens 72 Stunden | Minimiert durch dedizierte AVVs. |
Claude speichert Ihre Daten standardmäßig 30 Tage. Im Oktober 2025 machte Anthropic das Training-Opt-in zur Standardeinstellung — wer die Aufforderung nicht aktiv beantwortet hat, dessen Unterhaltungen werden möglicherweise bis zu 5 Jahre gespeichert.
ChatGPT behält Konversationen, solange das Konto aktiv ist. Nach dem Löschen einer Unterhaltung benötigt OpenAI bis zu 30 Tage, um sie vollständig aus ihren Systemen zu entfernen.
Gemini speichert Unterhaltungen bis zu 18 Monate. Selbst wenn Sie „Aktivität speichern" deaktivieren, behält Google Ihre Daten noch mindestens 72 Stunden.
Wysors dedizierte AVVs mit jedem Anbieter minimieren die Speicherdauer auf das absolute technische Minimum — und bei den meisten Anbietern ist das null. Ihre Unterhaltungen bleiben in Ihrem Workspace, nicht monatelang auf Anbieter-Servern.
Training-Standardeinstellungen variieren je nach Anbieter
Standardmäßig erlauben die meisten Consumer-KI-Tarife die Verwendung Ihrer Unterhaltungen zur Modellverbesserung:
- Claude: Opt-in seit Oktober 2025, aber Anthropic hat es für Nutzer, die nicht aktiv reagiert haben, standardmäßig auf „an" gesetzt
- ChatGPT: Standardmäßig aktiviert. Kann unter Einstellungen > Datenkontrollen deaktiviert werden
- Gemini: Standardmäßig aktiviert. Deaktivieren Sie „Aktivität speichern", um sich abzumelden
Enterprise- und API-Tarife bei allen drei Anbietern schließen das Training in der Regel standardmäßig aus. Aber Einzelnutzer und kleine Teams in Consumer-Tarifen müssen dies selbst konfigurieren.
Wysor trainiert niemals mit Ihren Daten. Nicht im kostenlosen Plan. Nicht im bezahlten. In keinem Plan. Es ist vertraglich festgelegt, kein Schalter zum Umlegen.
Überprüfungspraktiken der Anbieter
Alle drei großen Anbieter haben eine Form der menschlichen Überprüfung in ihrer Datenpipeline:
Google ist transparent — sie warnen Gemini-Nutzer ausdrücklich davor, vertrauliche Informationen einzugeben. Von Menschen überprüfte Unterhaltungen können bis zu 3 Jahre gespeichert werden, getrennt von Ihrem Konto.
OpenAI erklärt in ihrer EU-Datenschutzrichtlinie, dass Inhalte zu Sicherheits- und Compliance-Zwecken überprüft werden können. Das Abmelden vom Training schließt die Überprüfung nicht aus. Bei API- und Enterprise-Tarifen gelten andere Praktiken — OpenAI bietet für qualifizierte API-Kunden eine Null-Datenspeicherung an.
Anthropic leitet markierte Claude-Unterhaltungen an ihr Trust-&-Safety-Team weiter. Markierte Ein- und Ausgaben können bis zu 2 Jahre aufbewahrt werden, Sicherheitsbewertungen sogar bis zu 7 Jahre.
Was „Löschen" bei jedem Anbieter bedeutet
Die Löschfristen variieren, und in manchen Fällen können Daten länger bestehen bleiben als erwartet:
- Gemini: Wenn eine Unterhaltung vor dem Löschen zur menschlichen Überprüfung ausgewählt wurde, kann diese Kopie bis zu 3 Jahre separat erhalten bleiben.
- Claude: Markierte Unterhaltungen werden bis zu 2 Jahre aufbewahrt, unabhängig vom Löschen.
- ChatGPT: Standard-Löschung dauert bis zu 30 Tage. In bestimmten Gerichtsverfahren (wie NYT v. OpenAI 2025) haben Gerichte die Aufbewahrung von Konversationsdaten angeordnet — eine rechtliche Realität, die jeden Anbieter betreffen kann, nicht nur OpenAI.
Bei Wysor bedeutet Löschen auch Löschen. Wenn Anbieter Ihre Daten nicht über das minimale Verarbeitungsfenster hinaus vorhalten, gibt es nichts aufzubewahren.
KI-Unterhaltungen und das Anwaltsprivileg
Im Februar 2026 stellte United States v. Heppner fest, dass Unterhaltungen mit KI-Assistenten nicht durch das Anwaltsgeheimnis geschützt sind und kein Arbeitsergebnis darstellen.
Die Begründung: Anbieter-Richtlinien erlauben die potenzielle Weitergabe an Regierungsbehörden und können die Nutzung zur Modellverbesserung gestatten. Das Gericht sah keine berechtigte Vertraulichkeitserwartung.
Dieser Präzedenzfall gilt anbieterübergreifend — jede KI-Unterhaltung in einem Consumer-Tarif ist potenziell in Gerichtsverfahren offenlegbar. Die Minimierung der anbieterseitigen Speicherung reduziert dieses Risiko.
Umgang mit Sprachdaten
KI-Sprachfunktionen werden zunehmend beliebt. So geht jeder Anbieter mit Audiodaten um.
Claude Voice
- Audio wird an Anthropics Server gesendet und innerhalb von ca. 24 Stunden gelöscht
- Sprachsynthese verwendet ElevenLabs (ein Drittanbieter)
- Der Anbieter für Sprache-zu-Text wird nicht öffentlich genannt
- Keine öffentliche Null-Datenspeicherungs-Vereinbarung zwischen Anthropic und ElevenLabs
ChatGPT Voice
- Audio- und Videoaufnahmen werden zusammen mit der Unterhaltung gespeichert, solange der Chat existiert
- Audio wird nicht für das Training verwendet, aber Texttranskripte möglicherweise schon, wenn das Training aktiviert ist
Gemini Voice
- Googles „Ephemeral Learning" verarbeitet Aktivierungswort-Audio im RAM, aber tatsächliche Sprachanfragen werden an Googles Server gesendet
- Google war mit Rechtsstreitigkeiten zum Umgang mit Sprachdaten konfrontiert, darunter ein Vergleich über 68 Millionen Dollar in Bezug auf Datenschutzpraktiken
Apple Siri
- Serververarbeitete Anfragen: Apple speichert Transkripte bis zu 2 Jahre
- Auf dem Gerät verarbeitete Diktate bleiben lokal, aber Apple erfasst Metadaten (Anfragekategorie, Geräteinformationen, Leistungsstatistiken)
- „Siri verbessern"-Opt-in erlaubt Apple, Sprachaufnahmen bis zu 2 Jahre aufzubewahren
- Apple zahlte einen Vergleich über 95 Millionen Dollar wegen versehentlicher Siri-Aktivierungen
Wysor Voice
- Alles passiert auf Ihrem Gerät. Ihr Audio verlässt nie Ihr Telefon
- Keine Server. Keine Drittanbieter. Keine Cloud-Verarbeitung. Funktioniert offline
- Wir können Ihre Sprachdaten nicht weitergeben, weil wir sie nie erhalten
Enterprise-Pläne: Starker Schutz, höhere Kosten
Alle drei Anbieter bieten Enterprise-Tarife mit deutlich besseren Datenschutzmaßnahmen — AVVs, Training-Ausschlüsse und in manchen Fällen Null-Datenspeicherung. Das sind solide Optionen für Organisationen mit dem entsprechenden Budget und Beschaffungsressourcen.
| Claude Enterprise | ChatGPT Enterprise | Gemini Workspace | Wysor | |
|---|---|---|---|---|
| Null-Datenspeicherung | API, auf Genehmigung | Für qualifizierte Kunden verfügbar | Konfigurierbar | Standard bei jedem Tarif |
| Menschliche Überprüfung | Reduziert (markierte Daten können weiterhin überprüft werden) | Keine mit ZDR | Keine | Keine standardmäßig. |
| Beschaffungsprozess | Enterprise-Vertrieb | Enterprise-Vertrieb | Enterprise-Vertrieb | Self-Service-Registrierung |
Für OpenAI, wo wir noch einen dedizierten Vertrag finalisieren, deaktivieren wir die Datenspeicherung bei jeder einzelnen Anfrage, die wir senden, explizit — technisch erzwungen, nicht nur angefragt. Missbrauchsprotokolle können bis zu 30 Tage gespeichert bleiben.
Enterprise-Pläne sind die richtige Wahl für große Organisationen. Aber für Einzelpersonen, kleine Teams und Unternehmen, die denselben Schutz ohne einen Beschaffungszyklus wünschen, macht Wysor ihn vom ersten Tag an zugänglich.
Was das für Sie bedeutet
Ihre Mitarbeiter nutzen täglich KI — für Verträge, Strategien, Kundenkommunikation. Die Frage ist, ob diese Unterhaltungen durch vertragliche Garantien oder nur durch Standardeinstellungen geschützt sind.
Wysor gibt jedem Nutzer — vom kostenlosen bis zum Premium-Tarif — Zugang zu GPT-5, Claude, Gemini und Perplexity in einem Workspace, unterstützt durch dedizierte AVVs, die die Anbieter-Speicherung minimieren, Training verbieten und den anbieterseitigen Datenzugriff minimieren. Dazu Sprachtranskription auf dem Gerät, E-Mail-Verwaltung und ein vollständiger Audit-Trail.
Enterprise-Datenschutz sollte keinen Enterprise-Vertrag erfordern.
Weiterlesen
- Vollständiger Datenschutz: Ihre Daten verlassen nie Ihre Kontrolle — Wie Wysor erstklassige KI mit vertraglichen Datenschutzgarantien liefert
- Ihre Sprachnotizen werden an Apple gesendet. Unsere nicht. — Transkription auf dem Gerät, die nie Ihr Telefon verlässt
- Schatten-KI: Wenn Ihre Mitarbeiter heimlich ChatGPT nutzen — Warum ein KI-Verbot nicht funktioniert und was stattdessen hilft
- Wir haben den KI-Workspace gebaut, den es schon vor 3 Jahren hätte geben sollen — Chat, Agenten, E-Mail, Kalender, Recherche, Sprache und Bilder an einem Ort
Alle Angaben basieren auf offiziellen Datenschutzrichtlinien, Nutzungsbedingungen, Gerichtsdokumenten und Anbieterdokumentation, Stand Februar 2026.



