Sie trainieren Ihren Ersatz: Wie Cowork Ihre Expertise nutzt
Wir haben alle den alten Spruch verinnerlicht: „Wenn ein Produkt kostenlos ist, bist du das Produkt." Als KI-Tools dann 20 Dollar im Monat kosteten, haben viele von uns innerlich aufgeatmet. Wir bezahlen. Wir sind die Kunden. Unsere Daten sind wahrscheinlich sicher.
Diese Annahme bröckelt, sobald man sich genauer ansieht, wie „agentische" Tools wie Anthropics Cowork tatsächlich funktionieren.
Cowork ist ein neuer Modus in Claude Desktop. Statt eines Hin-und-her-Chats gewähren Sie der KI Zugriff auf Ihre lokalen Dateien und lassen sie Aufgaben erledigen: Downloads organisieren, Tabellen analysieren, Präsentationen entwerfen, Recherche über Dutzende Dokumente hinweg zusammenfassen. Das Marketing betont stark, dass es „auf Ihrem Computer" läuft, und hebt die „lokale" Nutzung hervor.
Richtig eingesetzt ist es leistungsstark. Aber wie es mit Ihren Daten umgeht — und wie diese Daten verwendet werden können — verdient eine klare Erklärung.
Was „läuft lokal" wirklich bedeutet
Anthropic sagt, Cowork „läuft auf Ihrem Computer". Der Gesprächsverlauf wird „lokal gespeichert". Es gibt eine lokale VM, die alles „isoliert" hält.
Die meisten Menschen werden das verständlicherweise so lesen: Meine Dateien werden lokal auf meinem Rechner verarbeitet.
Das ist nicht das, was passiert.
Das KI-Modell selbst läuft nicht auf Ihrem Laptop. Es läuft in Anthropics Rechenzentren. Wenn Cowork Ihre Dateien liest, werden die Inhalte zur Verarbeitung an Anthropics Server gesendet. Was „lokal gespeichert" wird, ist das Chat-Protokoll und der Sitzungsstatus — nicht die eigentliche Modellberechnung.
Anders gesagt: Die Tatsache, dass Sie eine Desktop-App und eine lokale VM sehen, bedeutet nicht, dass Ihre Dokumente Ihr Gerät nie verlassen. Das tun sie. „Läuft lokal" und „verarbeitet lokal" sind aus Datenschutzperspektive sehr unterschiedliche Aussagen.
Training: Opt-Out, nicht standardmäßig deaktiviert
Bei Claude Pro sind Ihre Unterhaltungen standardmäßig für das Modelltraining freigegeben — es sei denn, Sie widersprechen ausdrücklich. Anthropic stellte Ende 2025 auf ein Opt-in-Verfahren um, aber wenn Sie die Aufforderung weggeklickt oder übersprungen haben, ist Ihr Konto möglicherweise immer noch eingewilligt.
Kombinieren Sie das mit dem Verhalten von Cowork:
In einem normalen Chat fügen Sie selektiv Inhalte ein. In Cowork können Sie Zugriff auf ganze Ordner gewähren: Kundenangebote, Finanzmodelle, Strategiedokumente, interne Memos, Wettbewerbsanalysen. Das ist ein wesentlich größerer und sensiblerer Datensatz als eine typische Chat-Interaktion.
Selbst wenn Sie das Training deaktivieren, werden Ihre Daten trotzdem an Anthropics Server gesendet, um Ihre Anfrage zu bearbeiten. Das Ausschalten von „Claude verbessern helfen" adressiert nur einen Teil des Lebenszyklus — nicht die weitergehenden Fragen zu Speicherung, Zugriff und Nachvollziehbarkeit.
Enterprise-Pläne decken Cowork nicht vollständig ab
Es liegt nahe anzunehmen: „Die Consumer-Tarife sind locker, aber Enterprise muss abgesichert sein. Dafür zahlt man schließlich den Aufpreis."
Anthropics eigene Dokumentation für Cowork verkompliziert diese Erwartung. Sie stellen ausdrücklich fest:
„Cowork-Aktivitäten werden nicht in Audit-Logs, der Compliance-API oder Datenexporten erfasst. Verwenden Sie Cowork nicht für regulierte Workloads."
Die Audit-Logs und Compliance-APIs, auf die Enterprise-Kunden sich verlassen, bilden Cowork-Aktivitäten nicht ab. Über Cowork verarbeitete Daten fallen außerhalb der normalen Export- und Überwachungsmechanismen. Anthropic selbst warnt davor, Cowork für regulierte Workloads zu verwenden.
Obwohl Ihre Organisation also möglicherweise einen AVV, Audits und Aufbewahrungskontrollen für die reguläre Claude-Nutzung hat, steht Cowork außerhalb dieser Kontrollen — solange Anthropic die Integration nicht ändert.
Das ist das Gegenteil dessen, was viele Sicherheits- und Compliance-Teams annehmen: dass neue Funktionen bestehende Schutzmaßnahmen automatisch erben.
Das eigentliche Risiko: Sie systematisieren Ihre eigene Expertise
Die wichtigste — und am wenigsten diskutierte — Dynamik ist nicht einfach, dass Ihre Dokumente verarbeitet oder sogar gespeichert werden. Es geht darum, wie Ihre Expertise kodiert wird.
Wenn ein Berater wiederkehrende Kundenarbeit durch Cowork laufen lässt, oder ein Analyst es nutzt, um proprietäre Recherche zu strukturieren, oder eine Führungskraft interne Strategiedokumente damit verarbeitet — dann nutzen sie nicht einfach ein Tool. Sie systematisieren ihre eigenen Muster: analytische Frameworks, Schreibstil und Tonalität, domänenspezifische Heuristiken, über Jahre angesammeltes Branchenwissen.
Wenn diese Daten im Modelltraining verwendet werden, werden diese Muster Teil des Modellverhaltens. Zukünftige Nutzer können Claude bitten, „eine Wettbewerbsanalyse für [Ihre Branche] zu schreiben", und erhalten Output, der von den Mustern früherer Nutzer derselben Domäne beeinflusst ist. Nutzer, die nie beabsichtigt haben, dass ihre Frameworks zu einem generischen Produktfeature werden.
Das ist eine direkte Konsequenz davon, wie große Modelle aus Trainingsdaten lernen. Je spezialisierter Ihre Arbeit, desto wertvoller ist sie als Trainingssignal — und desto direkter kann sie Ihre Differenzierung untergraben, wenn Sie nicht darauf achten, wohin diese Daten gehen.
In den 2010ern war der Handel: Aufmerksamkeit im Tausch gegen kostenlose Produkte und zielgerichtete Werbung. In den 2020ern wird der Handel zunehmend: Ihre Expertise im Tausch gegen Modellverbesserungen.
Websuche: ein separater Datenabfluss
Selbst wenn Sie versuchen, den Netzwerkzugang innerhalb von Cowork zu sperren, gibt es eine wichtige Ausnahme: die Websuche.
Anthropics Dokumentation vermerkt:
„Berechtigungen für Netzwerkabfluss gelten nicht für das Websuche-Tool."
Suchanfragen, die Cowork in Ihrem Namen stellt — was Sie recherchieren, welche Märkte, welche Technologien — werden weiterhin an externe Suchanbieter gesendet. Diese Anfragen können Geschäftskontext wie Kunden, Branchen, Dealstrukturen und Wettbewerbslandschaften offenlegen, selbst wenn die zugrundeliegenden Dokumente eingeschränkt bleiben.
Sie können den direkten Dateiabfluss möglicherweise erfolgreich einschränken, während Sie unbeabsichtigt einen detaillierten Fingerabdruck Ihrer Forschungsinteressen und -muster preisgeben.
Warum Consumer-Pläne so aussehen, wie sie aussehen
Enterprise-Angebote bieten typischerweise AVVs, Training-Ausschlüsse, stärkere Aufbewahrungskontrollen sowie Audit-Logs und Compliance-Tools. Das sind verhandelte, vertragliche Schutzmaßnahmen. Sie brauchen Zeit, Anwälte und Budget.
Im Gegensatz dazu sind die meisten Early Adopter von Cowork Nutzer mit Einzel- oder Kleintea-Tarifen. Freiberufler und selbstständige Berater. Boutique-Agenturen. Kleine interne Teams und individuelle Wissensarbeiter.
Die Daten dieser Gruppe sind überproportional wertvoll: hochspezialisiert, direkt an umsatzgenerierende Expertise gebunden, dicht gepackt mit proprietären Frameworks und Taktiken. Dennoch nutzen sie Tarife, die standardmäßig Training erlauben, sofern man nicht ausdrücklich widerspricht, auf UI-Schalter statt auf durchsetzbare Verträge setzen und nur begrenzte Nachvollziehbarkeit und Governance bieten.
Das ist nicht unbedingt böswillig. So funktioniert Consumer-SaaS seit Jahren. Aber das Geschäftsmodell basiert auf großen Mengen hochwertiger Nutzerdaten — und individuelle Experten sind eine besonders ergiebige Quelle dieser Daten.
Wie wir Wysor anders konzipiert haben
Als wir Wysor entwickelt haben, sind wir von einer anderen Prämisse ausgegangen: Ihre Expertise ist ein Vermögenswert, kein Brennstoff für das Modell eines anderen.
Bevor wir Code geschrieben haben, haben wir Auftragsverarbeitungsverträge mit jedem KI-Anbieter abgeschlossen, den wir nutzen. Nicht als Präferenz-Schalter, sondern als verbindliche rechtliche Garantie dafür, wie Ihre Daten behandelt werden.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Training mit Ihren Daten | UI-Opt-out (historisch standardmäßig aktiviert) | Vertraglich bei jedem Tarif untersagt, einschließlich kostenlos |
| Audit-Trail | Keine Audit-Protokollierung für Cowork-Aktivitäten | Vollständiger Audit-Trail aller Aktivitäten und Zugriffe |
| Datenspeicherung | 30 Tage bis 5 Jahre je nach Kontext | Auf das strikte technische Minimum reduziert, vertraglich definiert |
| Durchsetzungsmechanismus | Einstellungsschalter und Richtlinientexte | AVVs und Handelsverträge mit Rechtsdurchsetzung |
Wenn Sie Berater, Analyst oder Entscheider sind, dessen Dokumente die eigene Differenzierung ausmachen, ist das wichtig. Sie sollten fortschrittliche KI nutzen können, ohne Ihre einzigartigen Muster in ein generisches Feature für alle anderen zu verwandeln.
Wenn Sie Cowork heute nutzen
Cowork kann wirklich nützlich sein. Es geht nicht darum, es komplett zu meiden. Es geht darum, die Kompromisse zu verstehen und informierte Entscheidungen zu treffen.
-
Prüfen Sie Ihre Training-Einstellungen. In Claude: Einstellungen, Datenschutz. Stellen Sie sicher, dass „Claude verbessern helfen" deaktiviert ist, wenn Sie nicht möchten, dass Ihre Daten im Training verwendet werden.
-
Wählen Sie bewusst aus, welche Ordner Sie freigeben. Richten Sie Cowork nicht auf Verzeichnisse mit Ihren sensibelsten Kundenarbeiten, internen Strategien oder regulierten Daten — insbesondere solange Anthropic keine vollständige Audit-Protokollierung für Cowork anbietet.
-
Erkennen Sie die Grenzen der Schalter. Das Abmelden vom Training verhindert nicht alle Formen des Datenzugriffs oder der Datenspeicherung. Websuche und andere Integrationen können weiterhin erheblichen Kontext darüber preisgeben, woran Sie arbeiten.
-
Bevorzugen Sie vertragliche Schutzmaßnahmen, wo möglich. Für Arbeit, die Ihre Kunden oder Ihren Wettbewerbsvorteil wesentlich betrifft, nutzen Sie Tools, bei denen Datenschutzgarantien durch Verträge abgesichert sind — nicht nur durch Einstellungen.
Oder nutzen Sie einen Workspace, der mit vertraglichen Datenschutzgarantien beginnt und darauf aufbaut, statt Sie zu bitten, sie als nachträgliche Ergänzung zu akzeptieren.
Weiterlesen
- Ihre KI weiß mehr, als Sie denken — Ein praxisnaher Datenschutzvergleich von ChatGPT, Claude und Gemini.
- Schatten-KI: Wenn Ihre Mitarbeiter hinter Ihrem Rücken ChatGPT nutzen — Warum einfache Verbote scheitern und wie Sie KI-Nutzung managen, ohne die Kontrolle über Ihre Daten zu verlieren.
- Vollständiger Datenschutz: Ihre Daten verlassen nie Ihre Kontrolle — Wie Wysor erstklassige KI liefert und Ihre Daten gleichzeitig unter strikter vertraglicher und technischer Kontrolle hält.
Alle Produktbeschreibungen und Verweise auf Richtlinien basieren auf Anthropics Cowork-Dokumentation, Claude-Datenschutzrichtlinien und Nutzungsbedingungen, Stand März 2026. Prüfen Sie immer die aktuellste offizielle Dokumentation, bevor Sie Entscheidungen über sensible oder regulierte Workloads treffen.



