Vous formez votre remplaçant : comment Cowork utilise votre expertise
Nous avons tous intégré le vieil adage : "Si un produit est gratuit, c'est vous le produit." Alors quand les outils d'IA ont commencé à facturer 20 $/mois, beaucoup d'entre nous se sont discrètement rassurés. On paie. On est le client. Nos données sont probablement en sécurité.
Cette hypothèse s'effondre dès qu'on examine de près le fonctionnement d'outils "agentiques" comme Cowork d'Anthropic.
Cowork est un nouveau mode dans Claude Desktop. Au lieu d'un échange de chat classique, vous lui donnez accès à vos fichiers locaux et le laissez effectuer des tâches : organiser vos téléchargements, analyser des tableurs, rédiger des présentations, synthétiser des recherches à travers des dizaines de documents. Le marketing insiste largement sur le fait que l'outil fonctionne "sur votre ordinateur" et met en avant un usage "local".
Utilisé correctement, c'est puissant. Mais la manière dont il traite vos données, et comment ces données peuvent être utilisées, mérite une explication claire.
Ce que "fonctionne localement" signifie réellement
Anthropic dit que Cowork "fonctionne sur votre ordinateur." L'historique des conversations est "stocké localement." Une VM locale maintient les choses "isolées."
La plupart des gens comprendront naturellement cela comme : mes fichiers sont traités localement sur ma machine.
Ce n'est pas ce qui se passe.
Le modèle d'IA lui-même ne tourne pas sur votre ordinateur portable. Il tourne dans les centres de données d'Anthropic. Quand Cowork lit vos fichiers, leur contenu est envoyé aux serveurs d'Anthropic pour traitement. Ce qui est "stocké localement", c'est l'historique du chat et l'état de la session, pas le calcul central du modèle.
Autrement dit : le fait de voir une application de bureau et une VM locale ne signifie pas que vos documents ne quittent jamais votre appareil. C'est le cas. "Fonctionne localement" et "traite localement" sont des affirmations très différentes du point de vue de la vie privée.
Entraînement : opt-out, pas désactivé par défaut
Sur Claude Pro, vos conversations sont éligibles à l'entraînement des modèles par défaut, sauf si vous vous y opposez explicitement. Anthropic est passé à un flux d'opt-in fin 2025, mais si vous avez ignoré ou passé cette notification, votre compte pourrait toujours être en opt-in.
Combinez cela avec le comportement de Cowork :
Dans un chat normal, vous collez du contenu de manière sélective. Dans Cowork, vous pouvez donner accès à des dossiers entiers : propositions clients, modèles financiers, documents de stratégie, notes internes, analyses concurrentielles. C'est un ensemble de données bien plus vaste et plus sensible qu'une interaction de chat classique.
Même quand vous désactivez l'entraînement, vos données sont toujours envoyées aux serveurs d'Anthropic pour traiter votre requête. Désactiver "Aider à améliorer Claude" ne concerne qu'une partie du cycle de vie des données, pas les questions plus larges de conservation, d'accès et d'auditabilité.
Les forfaits Enterprise ne couvrent pas entièrement Cowork
Il est raisonnable de penser : "Les offres grand public sont laxistes, mais l'Enterprise doit être verrouillé. C'est pour ça qu'on paie le premium."
La propre documentation d'Anthropic pour Cowork complique cette attente. Ils déclarent explicitement :
"L'activité de Cowork n'est pas capturée dans les journaux d'audit, l'API de conformité ou les exports de données. N'utilisez pas Cowork pour des charges de travail réglementées."
Les journaux d'audit et les API de conformité sur lesquels les clients Enterprise s'appuient ne reflètent pas l'activité de Cowork. Les données traitées via Cowork échappent aux mécanismes normaux d'export et de supervision. Anthropic lui-même déconseille d'utiliser Cowork pour des charges de travail réglementées.
Ainsi, même si votre organisation dispose d'un DPA, d'audits et de contrôles de conservation pour l'utilisation standard de Claude, Cowork se situe en dehors de ces contrôles, sauf si Anthropic modifie l'intégration.
C'est l'inverse de ce que de nombreuses équipes sécurité et conformité supposent : que les nouvelles fonctionnalités héritent par défaut des garde-fous existants.
Le vrai risque : vous systématisez votre propre expertise
La dynamique la plus importante, et la moins discutée, n'est pas simplement que vos documents sont traités ou même conservés. C'est la façon dont votre expertise est encodée.
Quand un consultant fait passer ses missions clients récurrentes par Cowork, ou qu'un analyste l'utilise pour structurer des recherches propriétaires, ou qu'un dirigeant y fait traiter des documents de stratégie interne, ils ne se contentent pas d'utiliser un outil. Ils systématisent leurs propres schémas : cadres analytiques, style et ton d'écriture, heuristiques spécifiques à leur domaine, connaissances sectorielles accumulées au fil des années.
Si ces données sont utilisées pour l'entraînement des modèles, ces schémas deviennent partie intégrante du comportement du modèle. Les futurs utilisateurs pourront demander à Claude de "rédiger une analyse concurrentielle pour [votre secteur]" et recevoir un résultat influencé par les schémas des utilisateurs précédents dans ce même domaine. Des utilisateurs qui n'avaient jamais eu l'intention que leurs cadres méthodologiques deviennent une fonctionnalité générique du produit.
C'est une conséquence directe de la façon dont les grands modèles apprennent à partir des données d'entraînement. Plus votre travail est spécialisé, plus il a de valeur comme signal d'entraînement, et plus il peut directement éroder votre différenciation si vous ne faites pas attention à la destination de ces données.
Dans les années 2010, l'échange était l'attention en contrepartie de produits gratuits et de publicités ciblées. Dans les années 2020, l'échange devient rapidement votre expertise en contrepartie de l'amélioration des modèles.
Recherche web : un canal de sortie distinct
Même si vous essayez de verrouiller l'accès réseau à l'intérieur de Cowork, il existe une exception importante : la recherche web.
La documentation d'Anthropic précise :
"Les permissions de sortie réseau ne s'appliquent pas à l'outil de recherche web."
Les requêtes que Cowork émet en votre nom — ce que vous recherchez, quels marchés, quelles technologies — sont toujours envoyées aux moteurs de recherche externes. Ces requêtes peuvent révéler du contexte commercial comme les clients, les secteurs, les structures de deals et le paysage concurrentiel, même si les documents sous-jacents restent contraints.
Vous pourriez réussir à restreindre la sortie directe de fichiers tout en exposant involontairement une empreinte détaillée de vos centres d'intérêt et de vos schémas de recherche.
Pourquoi les offres grand public sont conçues ainsi
Les offres Enterprise fournissent généralement des DPA, des exclusions d'entraînement, des contrôles de conservation plus stricts, des journaux d'audit et des outils de conformité. Ce sont des protections négociées et contractuelles. Elles nécessitent du temps, des avocats et du budget.
En revanche, la plupart des premiers utilisateurs de Cowork sont sur des forfaits individuels ou de petites équipes. Freelances et consultants indépendants. Agences boutique. Petites équipes internes et travailleurs du savoir individuels.
Les données de ce groupe ont une valeur disproportionnée : hautement spécialisées, directement liées à une expertise génératrice de revenus, denses en cadres et tactiques propriétaires. Pourtant, ils sont sur des forfaits qui activent l'entraînement par défaut sauf opt-out explicite, reposent sur des boutons dans l'interface plutôt que sur des contrats exécutoires, et offrent une auditabilité et une gouvernance limitées.
Ce n'est pas nécessairement malveillant. C'est ainsi que le SaaS grand public fonctionne depuis des années. Mais le modèle économique dépend de grands volumes de données utilisateur de haute qualité, et les experts individuels sont une source particulièrement riche de ces données.
Comment nous avons conçu Wysor différemment
Quand nous avons construit Wysor, nous sommes partis d'un principe différent : votre expertise est un actif, pas du carburant pour le modèle de quelqu'un d'autre.
Avant d'écrire la moindre ligne de code, nous avons mis en place des Data Processing Agreements avec chaque fournisseur d'IA que nous utilisons. Non pas comme un simple bouton de préférence, mais comme une garantie juridique de base sur la façon dont vos données sont traitées.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Entraînement sur vos données | Opt-out via l'interface (historiquement activé par défaut) | Contractuellement interdit sur chaque forfait, y compris gratuit |
| Piste d'audit | Aucun journal d'audit pour l'activité Cowork | Piste d'audit complète de l'activité et des accès |
| Conservation des données | 30 jours à 5 ans selon le contexte | Minimisée au strict minimum technique, définie dans les contrats |
| Mécanisme d'application | Boutons de paramétrage et termes de politique | DPA et contrats commerciaux avec recours juridique |
Si vous êtes consultant, analyste ou décideur dont les documents constituent la différenciation, cela compte. Vous devriez pouvoir utiliser une IA avancée sans transformer vos schémas uniques en fonctionnalité générique pour tout le monde.
Si vous utilisez Cowork aujourd'hui
Cowork peut être véritablement utile. L'objectif n'est pas de l'éviter entièrement. C'est de comprendre les compromis et de faire des choix éclairés.
-
Vérifiez vos paramètres d'entraînement. Dans Claude : Paramètres, Confidentialité. Assurez-vous que "Aider à améliorer Claude" est désactivé si vous ne souhaitez pas que vos données soient utilisées pour l'entraînement.
-
Soyez intentionnel dans le choix des dossiers que vous exposez. Évitez de diriger Cowork vers des répertoires contenant vos travaux clients les plus sensibles, votre stratégie interne ou des données réglementées — en particulier tant qu'Anthropic n'offre pas de journalisation d'audit complète pour Cowork.
-
Reconnaissez les limites des boutons de paramétrage. Se désinscrire de l'entraînement n'empêche pas toutes les formes d'accès ou de conservation des données. La recherche web et d'autres intégrations peuvent toujours révéler un contexte significatif sur ce sur quoi vous travaillez.
-
Préférez les protections contractuelles dans la mesure du possible. Pour le travail qui affecte matériellement vos clients ou votre avantage concurrentiel, utilisez des outils où les garanties de confidentialité sont soutenues par des contrats, pas seulement par des préférences.
Ou utilisez un espace de travail qui part de garanties contractuelles de confidentialité et se construit autour d'elles, plutôt que de vous demander de les accepter après coup.
Pour aller plus loin
- Votre IA en sait plus que vous ne le pensez — Un comparatif pratique des politiques de confidentialité de ChatGPT, Claude et Gemini.
- Shadow AI : quand vos employés utilisent ChatGPT dans votre dos — Pourquoi les interdictions simples échouent, et comment gérer l'usage de l'IA sans perdre le contrôle de vos données.
- Confidentialité totale : vos données ne quittent jamais votre contrôle — Comment Wysor offre une IA de pointe tout en gardant vos données sous un contrôle contractuel et technique strict.
Toutes les descriptions de produits et les références aux politiques sont basées sur la documentation Cowork d'Anthropic, les politiques de confidentialité de Claude et les conditions d'utilisation en date de mars 2026. Consultez toujours la documentation officielle la plus récente avant de prendre des décisions concernant des charges de travail sensibles ou réglementées.



