Reicht die kostenlose Version von ChatGPT oder Claude?
Es ist die vernünftigste Frage, die jemand stellt, bevor er für ein KI-Werkzeug bezahlt.
Die kostenlosen Versionen sind gut. Sie beantworten fast alles. Bevor man sich also für etwas Bezahltes anmeldet, lautet die ehrliche Frage: Brauche ich wirklich mehr als das?
Wir wollten Ihnen eine ehrliche statt einer beängstigenden Antwort geben, also haben wir uns hingesetzt und die tatsächlichen Datenschutzrichtlinien von OpenAI (ChatGPT) und Anthropic (Claude) gelesen. Beide. Von Anfang bis Ende.
Hier ist die ehrliche Version.
Was die kostenlosen Versionen tatsächlich speichern
Bleiben wir einfach bei dem, was die Richtlinien sagen, in klarer Sprache.
Wenn Sie die kostenlose Version von ChatGPT verwenden, speichert OpenAI:
- Alles, was Sie eingeben, sowie alle Dateien, Bilder, Audio- oder Videodateien, die Sie hochladen.
- Ihren Namen, Ihre E-Mail-Adresse, Ihre Kontoinformationen und alle Profildetails.
- Ihre IP-Adresse, Ihren Browser, Ihr Gerät, Ihre Zeitzone und wie Sie das Produkt nutzen.
- Ihren ungefähren Standort anhand Ihrer IP. Auch den genauen Standort, wenn Sie ihn aktivieren.
- Ihre Kontakte, falls Sie sie jemals verbinden, einschließlich der Information, welche Ihrer Kontakte den Dienst ebenfalls nutzen.
Wenn Sie die kostenlose Version von Claude verwenden, speichert Anthropic:
- Jede Eingabe und jede Antwort. Die Richtlinie ist eindeutig: Wenn Sie personenbezogene Daten in eine Eingabe aufnehmen, werden diese erfasst und können auch in der Antwort auftauchen.
- Ihren Namen, Ihre E-Mail-Adresse, Ihre Telefonnummer, Ihre Zahlungsdaten, falls Sie jemals upgraden.
- Ihre IP, Ihr Gerät, Ihren Browser, den aus der IP abgeleiteten Standort und Ihre Nutzung des Produkts.
- Die gesamte Konversation, falls Sie jemals auf Daumen hoch oder Daumen runter klicken. Diese wird als Feedback gespeichert.
Selbst mit ein paar sorgfältig geschwärzten Wörtern werden also bei beiden Produkten in der kostenlosen Version die meisten Metadaten rund um Ihre Nachricht ohnehin erfasst.
"Wird meine Konversation zum Trainieren der KI verwendet?"
Sowohl bei ChatGPT als auch bei Claude lautet die Standardeinstellung in der kostenlosen Version: ja. Es gibt eine Opt-out-Möglichkeit. Es ist eine Einstellung, die Sie selbst finden und deaktivieren müssen.
Das bedeutet, dass die meisten Menschen, die nie die Datenschutzeinstellungen geöffnet haben, das nächste Modell mit ihrer Arbeit trainieren. Mit ihren Entwürfen. Mit der Frage, die sie spät in der Nacht gestellt haben.
Dieser Teil ist keine Wysor-Meinung. Es sind die Richtlinien.
OpenAI sagt, dass Inhalte verwendet werden, "um unsere Dienste zu verbessern und weiterzuentwickeln und Forschung zu betreiben, zum Beispiel um neue Funktionen zu entwickeln", und erwähnt ausdrücklich das Training der Modelle, die ChatGPT antreiben, mit einer Opt-out-Möglichkeit.
Anthropic sagt, dass es "Ihre Eingaben und Ausgaben verwenden kann, um unsere Modelle zu trainieren und unsere Dienste zu verbessern, sofern Sie sich nicht über Ihre Kontoeinstellungen abmelden". Es weist auch auf zwei Fälle hin, in denen die Opt-out-Möglichkeit nicht greift: alles, was zur Sicherheitsprüfung markiert wurde, und alles, was Sie als Feedback eingereicht haben.
Was auch immer Sie also in einem kostenlosen Konto mit Standardeinstellungen einfügen, ist Freiwild für das Training.
"Was ist mit temporären Chats?"
ChatGPT verfügt über einen Modus für temporäre Chats. Er sieht aus wie die naheliegende Antwort: nichts wird im Verlauf gespeichert, nichts wird zum Training verwendet. Viele Menschen, denen Datenschutz wichtig ist, nutzen ihn genau für solche Anliegen.
Er ist besser als ein normaler Chat. Er ist nicht der Radiergummi, den die meisten Leute vermuten.
Die eigene Richtlinie von OpenAI besagt, dass temporäre Chats "innerhalb von 30 Tagen automatisch gelöscht werden (es sei denn, wir müssen sie aus Sicherheits- oder rechtlichen Gründen aufbewahren)". Der Chat liegt also zunächst bis zu 30 Tage auf den Servern.
Als 2025 ein US-Bundesgericht OpenAI anordnete, im Wesentlichen alle ChatGPT-Konversationen als Beweismittel in einem nicht damit zusammenhängenden Rechtsstreit aufzubewahren, erfasste diese Anordnung auch Chats, die Nutzer für flüchtig hielten. Normale Nutzer waren keine Parteien des Verfahrens. Ihre Daten wurden trotzdem aufbewahrt.
Der temporäre Modus ist eine nützliche Funktion. Er ist nicht dasselbe, als hätte die Nachricht nie existiert.
"Behebt ein Upgrade auf Plus oder Pro irgendetwas davon?"
Größtenteils nein. Die Datenschutzrichtlinien für die kostenlose Version, ChatGPT Plus und ChatGPT Pro sind dieselbe Verbraucherrichtlinie. Dasselbe gilt für die kostenlose Version von Claude.ai und Claude Pro. Bezahlen verschafft Ihnen mehr Modellzugriff, mehr Nutzung, mehr Funktionen. Es versetzt Sie nicht in ein anderes Regelwerk.
Das Regelwerk ändert sich erst, wenn ein Unternehmen einen Enterprise-Plan kauft, eine Vereinbarung unterzeichnet und den Beschaffungsprozess durchläuft. Dann gelten andere Bedingungen. Das ist der Teil, den die meisten gewöhnlichen Nutzer nicht sehen, und das ist der Teil, der zählt.
"Was ist, wenn ich nur die sensiblen Stellen schwärze?"
Eine gängige Behelfslösung. Das Gehalt schwärzen, den Firmennamen austauschen, dann einfügen. Vier Gründe, warum es weniger funktioniert, als Sie hoffen würden.
Schwärzung muss jedes Mal perfekt sein. Wenn Sie eine Zeile übersehen, einen Namen in einer Fußzeile stehen lassen, sitzt dieser Teil jetzt auf einem Server, den Sie nicht kontrollieren. Kein Rückgängig. Und er sitzt dort nicht allein, sondern ist mit Ihrem Konto verknüpft, verbunden mit jeder anderen Nachricht, die Sie jemals gesendet haben.
Die Frage selbst verrät die Schwärzung. "Ist dieses Wettbewerbsverbot in Kalifornien für einen Senior Engineer durchsetzbar, dessen Gehalt über dem üblichen Schwellenwert liegt?" Sie haben Ihr Gehalt nicht eingegeben, aber Sie haben dem Modell gerade Ihre Rolle, Ihren Bundesstaat und die Tatsache mitgeteilt, dass Sie über einer bestimmten Zahl verdienen. Ihr Name, Ihre IP, Ihre Adresse, Ihr Gerät und der Rest Ihres Nachrichtenverlaufs sind bereits mit diesem Profil verknüpft. Die Schwärzung ist kosmetisch, das Bild ist bereits da.
Bilder tragen ihr eigenes Geständnis in sich. Wenn Sie ein Foto hochladen, enthält die Datei normalerweise Metadaten. EXIF-Daten: GPS-Koordinaten des Aufnahmeorts, der genaue Zeitstempel, Marke und Seriennummer der Kamera oder des Telefons. Es sind dieselben Metadaten, mit denen Strafverfolgungs- und Forensikteams eine Person an einen Tatort setzen. Die meisten Menschen entfernen sie nie vor dem Hochladen. Den sichtbaren Inhalt des Bildes haben Sie geschwärzt. Der unsichtbare Inhalt ist vollständig erhalten.
Gespeichert heißt nicht versiegelt. Konversationen liegen in Systemen, in denen Sicherheitsprüfer, Trainings-Pipelines und Ingenieure sie öffnen können. Die Hilfeseite von Google Gemini sagt den Nutzern direkt: "Bitte geben Sie keine vertraulichen Informationen ein, die ein Prüfer nicht sehen soll."
Schwärzen ist in Ordnung für Dinge mit geringem Risiko. Es ist nicht der Schutz, für den die meisten Menschen es halten, sobald das, was Sie einfügen, tatsächlich von Bedeutung ist.
Wo Wysor steht
Wir wollten nicht schwärzen und hoffen. Wir wollten ein Werkzeug, das man einfach nutzen kann.
Also haben wir Wysor auf denselben Modellen aufgebaut, die Sie anderswo kostenlos nutzen würden. Claude. GPT-5. Gemini. Perplexity. Open Source. Der Unterschied liegt in der zugrunde liegenden Vereinbarung.
- Ihre Konversationen werden niemals zum Trainieren eines Modells verwendet. Niemals. Weder im kostenlosen noch im bezahlten Tarif. Es steht in unserem Vertrag mit jedem Anbieter, nicht in einer Einstellung in Ihrem Konto.
- Wir verwenden standardmäßig Zero Data Retention (ZDR, also keine Datenspeicherung) bei den meisten Anbietern, an die wir weiterleiten. Der Anbieter verarbeitet Ihre Nachricht, gibt die Antwort zurück und löscht Anfrage und Antwort aus seiner Infrastruktur. Kein 30-Tage-Fenster. Kein Chatverlauf, der auf dem Server eines anderen liegt.
- Integrierte Recherche in juristischen und medizinischen Datenbanken. Die Art von Arbeit, die Sie in diesen Bereichen leisten, eine Vertragsklausel, eine Wechselwirkung zwischen Medikamenten, eine Fallrecherche, ist genau die Art von Arbeit, die Sie nicht auf dem Server eines anderen gespeichert haben möchten. Bei Wysor ist sie es nicht.
- Viele unserer Modelle laufen auf in der EU gehosteten Servern. Ihre Nachricht wird in Europa beantwortet, und Ihre Daten bleiben dort.
- In der iOS-App findet die Sprachtranskription auf Ihrem Telefon statt. Die Audiodaten verlassen es nie.
Sie müssen einen Vertrag nicht schwärzen, bevor Sie ihn in Wysor einfügen, weil der Vertrag nicht aufbewahrt wird. Sie brauchen auch keine Beschaffungsabteilung, um all dies zu erhalten. Sie melden sich an, und das ist die Standardeinstellung.
Auf einen Blick
| ChatGPT (kostenlos) | Claude (kostenlos) | Wysor | |
|---|---|---|---|
| Ihre Konversationen werden gespeichert | Ja, bis Sie sie löschen | Ja, bis Sie sie löschen | Standardmäßig keine Datenspeicherung bei den meisten Anbietern |
| Verwendung zum Modelltraining | Standardmäßig aktiviert, Opt-out verfügbar | Standardmäßig aktiviert, Opt-out verfügbar | Niemals, vertraglich geregelt |
| Löschung | Bis zu 30 Tage, länger falls gesetzlich vorgeschrieben | Bis zu 30 Tage im Backend | Anbieter löscht sofort unter ZDR bei den meisten Modellen |
| Wo Ihre Daten verarbeitet werden | USA und andere Länder | USA, mit EU-Übertragungsvereinbarungen | Für viele Modelle in der EU gehostet |
| Sprachnotizen | Mit dem Chat gespeichert | An Server gesendet | Auf dem Gerät unter iOS |
| Was sich beim Bezahlen ändert | Funktionen. Datenschutzlage bleibt gleich | Funktionen. Datenschutzlage bleibt gleich | Gleicher Datenschutz in kostenlos und bezahlt |
Reicht also die kostenlose Version?
Für alltägliche Fragen, ja. Es ist nichts dagegen einzuwenden, ein kostenloses Werkzeug für eine Frage zu nutzen, die zu einem kostenlosen Werkzeug passt.
Der Grund, warum wir Wysor gebaut haben, ist, dass fast niemand KI nur für solche kostenlosen Fragen nutzt. Sobald man es ein paar Wochen ausprobiert hat, kommt der Vertrag rein. Die medizinische Frage kommt rein. Die Preisstrategie kommt rein. Die Sache, die man noch niemandem erzählt hat, kommt rein.
Ein schwarzer Stift beim Hineinschreiben ist kein schlechter Instinkt. Er ist nur nicht der Schutz, für den die meisten Menschen ihn halten. Der Schutz liegt darin, was das Unternehmen mit dem, was Sie gesendet haben, tun darf, und das ist durch die Richtlinie geregelt, nicht durch die Schwärzung.
Wenn Sie sich nicht jedes Mal, wenn Sie ein KI-Werkzeug öffnen, darüber Gedanken machen möchten, ist das die Lücke, für die wir Wysor gebaut haben.
Wysor kostenlos ausprobieren →
Weiterlesen
- Ihre KI weiß mehr, als Sie denken: Ein Datenschutzvergleich von Claude, ChatGPT und Gemini
- Vollständiger Datenschutz: Ihre Daten verlassen nie Ihre Kontrolle
- Ihre Sprachnotizen werden an Apple gesendet. Unsere nicht.
- Schatten-KI: Wenn Ihre Mitarbeiter ChatGPT hinter Ihrem Rücken nutzen
Auf Grundlage der Verbraucher-Datenschutzrichtlinie von OpenAI und der Verbraucher-Datenschutzrichtlinie von Anthropic (gültig ab 12. Januar 2026), vollständig gelesen im April 2026.



