Stai Addestrando il Tuo Sostituto: Come Cowork Usa la Tua Competenza
Abbiamo tutti interiorizzato il vecchio detto: "Se un prodotto è gratuito, il prodotto sei tu." Così quando gli strumenti AI hanno iniziato a costare 20$/mese, molti di noi si sono tranquillizzati. Stiamo pagando. Siamo clienti. I nostri dati probabilmente sono al sicuro.
Questa supposizione crolla quando si guarda da vicino come funzionano realmente gli strumenti "agentici" come Cowork di Anthropic.
Cowork è una nuova modalità di Claude Desktop. Invece di una chat botta-e-risposta, gli concedi l'accesso ai tuoi file locali e lo lasci eseguire compiti: organizzare download, analizzare fogli di calcolo, preparare presentazioni, sintetizzare ricerche da decine di documenti. Il marketing insiste molto sul fatto che funziona "sul tuo computer" ed enfatizza l'utilizzo "locale".
Usato correttamente, è potente. Ma il modo in cui gestisce i tuoi dati, e come quei dati possono essere utilizzati, merita una spiegazione chiara.
Cosa Significa Realmente "Funziona Localmente"
Anthropic dice che Cowork "funziona sul tuo computer." La cronologia delle conversazioni è "memorizzata localmente." C'è una VM locale che mantiene le cose "isolate."
La maggior parte delle persone leggerà comprensibilmente questo come: i miei file vengono elaborati localmente sulla mia macchina.
Non è ciò che sta accadendo.
Il modello AI in sé non gira sul tuo laptop. Gira nei data center di Anthropic. Quando Cowork legge i tuoi file, i contenuti vengono inviati ai server di Anthropic per l'elaborazione. Ciò che è "memorizzato localmente" è il log della chat e lo stato della sessione, non il calcolo principale del modello.
In altre parole: il fatto che vedi un'app desktop e una VM locale non significa che i tuoi documenti non lascino mai il tuo dispositivo. Lo fanno. "Funziona localmente" e "elabora localmente" sono affermazioni molto diverse dal punto di vista della privacy.
Addestramento: Opt-Out, Non Disattivato per Default
Su Claude Pro, le tue conversazioni sono idonee per l'addestramento del modello per impostazione predefinita, a meno che tu non faccia esplicitamente opt-out. Anthropic è passata a un flusso opt-in alla fine del 2025, ma se hai ignorato o saltato quel prompt, il tuo account potrebbe essere ancora in opt-in.
Combinalo con il comportamento di Cowork:
In una chat normale, incolli selettivamente dei contenuti. In Cowork, puoi concedere l'accesso a intere cartelle: proposte per clienti, modelli finanziari, documenti strategici, memo interni, analisi competitive. Si tratta di un dataset enormemente più ampio e più sensibile rispetto a una tipica interazione in chat.
Anche quando disabiliti l'addestramento, i tuoi dati vengono comunque inviati ai server di Anthropic per soddisfare la tua richiesta. Disattivare "Aiuta a migliorare Claude" copre solo una parte del ciclo di vita, non le questioni più ampie di conservazione, accesso e verificabilità.
I Piani Enterprise Non Coprono Completamente Cowork
È ragionevole pensare: "I piani consumer sono permissivi, ma Enterprise dev'essere blindato. È per quello che si paga il premium."
La documentazione stessa di Anthropic per Cowork complica questa aspettativa. Dichiarano esplicitamente:
"L'attività di Cowork non viene catturata nei Log di Audit, nell'API di Compliance o nelle Esportazioni Dati. Non utilizzare Cowork per carichi di lavoro regolamentati."
I log di audit e le API di compliance su cui i clienti Enterprise fanno affidamento non riflettono l'attività di Cowork. I dati elaborati tramite Cowork sono al di fuori dei normali meccanismi di esportazione e supervisione. Anthropic stessa sconsiglia di usare Cowork per carichi di lavoro regolamentati.
Quindi, mentre la tua organizzazione potrebbe avere un DPA, audit e controlli di conservazione per l'uso principale di Claude, Cowork si colloca al di fuori di quei controlli a meno che Anthropic non cambi l'integrazione.
Questo è l'opposto di ciò che molti team di sicurezza e compliance presumono: che le nuove funzionalità ereditino le salvaguardie esistenti per impostazione predefinita.
Il Rischio Reale: Stai Sistematizzando la Tua Stessa Competenza
La dinamica più importante, e meno discussa, non è semplicemente che i tuoi documenti vengano elaborati o persino conservati. È come la tua competenza viene codificata.
Quando un consulente alimenta lavori ricorrenti per i clienti attraverso Cowork, o un analista lo usa per strutturare ricerche proprietarie, o un dirigente ci fa passare documenti di strategia interna, non stanno semplicemente usando uno strumento. Stanno sistematizzando i propri pattern: framework analitici, stile e tono di scrittura, euristiche specifiche del dominio, conoscenza di settore accumulata nel corso degli anni.
Se quei dati vengono usati nell'addestramento del modello, quei pattern diventano parte del comportamento del modello. Gli utenti futuri possono chiedere a Claude di "scrivere un'analisi competitiva per [il tuo settore]" e ricevere output influenzato dai pattern degli utenti precedenti nello stesso dominio. Utenti che non avevano mai intenzione che i loro framework diventassero una funzionalità generica del prodotto.
È una conseguenza diretta di come i grandi modelli apprendono dai dati di addestramento. Più il tuo lavoro è specializzato, più è prezioso come segnale di addestramento, e più direttamente può erodere la tua differenziazione se non stai attento a dove finiscono quei dati.
Negli anni 2010, lo scambio era attenzione in cambio di prodotti gratuiti e pubblicità mirata. Negli anni 2020, lo scambio sta rapidamente diventando la tua competenza in cambio di miglioramenti del modello.
Ricerca Web: Un Percorso di Uscita Dati Separato
Anche se provi a bloccare l'accesso di rete all'interno di Cowork, c'è un'eccezione importante: la ricerca web.
La documentazione di Anthropic nota:
"I permessi di uscita di rete non si applicano allo strumento di ricerca web."
Le query che Cowork effettua per tuo conto — cosa stai ricercando, quali mercati, quali tecnologie — vengono comunque inviate a fornitori di ricerca esterni. Queste query possono rivelare contesto aziendale come clienti, settori, strutture di deal e panorami competitivi, anche se i documenti sottostanti restano vincolati.
Potresti riuscire a limitare l'uscita diretta dei file esponendo involontariamente un'impronta dettagliata dei tuoi interessi e pattern di ricerca.
Perché i Piani Consumer Sono Fatti Così
Le offerte Enterprise tipicamente forniscono DPA, esclusioni dall'addestramento, controlli di conservazione più solidi, log di audit e strumenti di compliance. Queste sono protezioni negoziate e contrattuali. Richiedono tempo, avvocati e budget.
Al contrario, la maggior parte degli early adopter di Cowork è su piani individuali o per piccoli team. Freelancer e consulenti indipendenti. Agenzie boutique. Piccoli team interni e singoli knowledge worker.
I dati di questo gruppo sono sproporzionatamente preziosi: altamente specializzati, direttamente legati a competenze che generano fatturato, densi di framework e tattiche proprietarie. Eppure sono su piani che per impostazione predefinita permettono l'addestramento a meno che tu non faccia esplicitamente opt-out, si affidano a toggle dell'interfaccia piuttosto che a contratti vincolanti, e offrono verificabilità e governance limitate.
Questo non è necessariamente malevolo. È come il SaaS consumer funziona da anni. Ma il modello di business dipende da grandi volumi di dati utente di alta qualità, e gli esperti individuali sono una fonte particolarmente ricca di quei dati.
Come Abbiamo Progettato Wysor in Modo Diverso
Quando abbiamo costruito Wysor, siamo partiti da una premessa diversa: la tua competenza è un asset, non carburante per il modello di qualcun altro.
Prima di scrivere codice, abbiamo stipulato Accordi per il Trattamento dei Dati (DPA) con ogni fornitore AI che utilizziamo. Non come un toggle di preferenza, ma come garanzia legale di base su come vengono trattati i tuoi dati.
| Claude Pro + Cowork | Wysor | |
|---|---|---|
| Addestramento sui tuoi dati | Opt-out nell'interfaccia (storicamente attivato per default) | Contrattualmente proibito su ogni piano, incluso il gratuito |
| Traccia di audit | Nessun log di audit per l'attività Cowork | Traccia di audit completa di attività e accessi |
| Conservazione dei dati | Da 30 giorni a 5 anni a seconda del contesto | Minimizzata al minimo tecnico indispensabile, definita nei contratti |
| Meccanismo di applicazione | Toggle di impostazioni e linguaggio delle policy | DPA e contratti commerciali con tutela legale |
Se sei un consulente, analista o professionista i cui documenti rappresentano la tua differenziazione, questo conta. Dovresti poter usare AI avanzata senza trasformare i tuoi pattern unici in una funzionalità generica per tutti gli altri.
Se Stai Usando Cowork Oggi
Cowork può essere genuinamente utile. Il punto non è evitarlo completamente. È comprendere i compromessi e fare scelte informate.
-
Controlla le tue impostazioni di addestramento. In Claude: Impostazioni, Privacy. Assicurati che "Aiuta a migliorare Claude" sia disattivato se non vuoi che i tuoi dati vengano usati nell'addestramento.
-
Sii intenzionale riguardo a quali cartelle esponi. Evita di puntare Cowork a directory contenenti il tuo lavoro più sensibile per i clienti, strategie interne o dati regolamentati, specialmente finché Anthropic non offrirà log di audit completi per Cowork.
-
Riconosci i limiti dei toggle. Fare opt-out dall'addestramento non previene tutte le forme di accesso o conservazione dei dati. La ricerca web e altre integrazioni possono comunque rivelare contesto significativo su ciò su cui stai lavorando.
-
Preferisci protezioni contrattuali dove possibile. Per lavoro che impatta materialmente sui tuoi clienti o sul tuo vantaggio competitivo, usa strumenti dove le garanzie di privacy sono supportate da contratti, non solo da preferenze.
Oppure usa uno spazio di lavoro che parte da garanzie contrattuali sulla privacy e ci costruisce attorno, piuttosto che chiederti di accettarle come un ripensamento.
Continua a leggere
- La Tua AI Sa Più di Quanto Pensi — Un confronto pratico delle policy sulla privacy di ChatGPT, Claude e Gemini.
- Shadow AI: Quando I Tuoi Dipendenti Usano ChatGPT di Nascosto — Perché i semplici divieti falliscono, e come gestire l'uso dell'AI senza perdere il controllo dei tuoi dati.
- Privacy Completa: I Tuoi Dati Non Escono Mai Dal Tuo Controllo — Come Wysor offre AI all'avanguardia mantenendo i tuoi dati sotto stretto controllo contrattuale e tecnico.
Tutte le descrizioni dei prodotti e i riferimenti alle policy si basano sulla documentazione di Cowork di Anthropic, sulle policy sulla privacy di Claude e sui termini di servizio aggiornati a marzo 2026. Consulta sempre la documentazione ufficiale più recente prima di prendere decisioni su carichi di lavoro sensibili o regolamentati.



