La tua IA sa più di quanto pensi: confronto sulla privacy tra Claude, ChatGPT e Gemini
Technology

La tua IA sa più di quanto pensi: confronto sulla privacy tra Claude, ChatGPT e Gemini

Prova questo prima di continuare a leggere. Apri ChatGPT e scrivi: "Qual è la cosa più personale che ti ho mai chiesto?"

La risposta sarà più specifica di quanto ti aspettassi. Più intima. Più rivelatrice. Forse non ricordi nemmeno di averla scritta. Il modello sì.

Perché l'IA ha tutto. Il contratto con il tuo stipendio sopra. Il messaggio vocale su uno sfogo cutaneo. Il messaggio difficile che hai scritto in bozza al tuo capo alle undici di sera. La domanda che eri troppo imbarazzato per mettere su Google.

Ecco allora la domanda scomoda che nessuno mette sulla pagina dei prezzi. Dove finisce davvero tutto questo?

Abbiamo letto le policy al posto tuo. Quello che abbiamo trovato è la ragione per cui Wysor esiste.


Scena 1: il contratto che hai incollato

Trascini un contratto di 14 pagine dentro ChatGPT. Evidenzi lo stipendio, la clausola di non concorrenza, quella strana frase sulla proprietà intellettuale.

Su un piano consumer, quella conversazione resta sui server di OpenAI per tutto il tempo in cui il tuo account è attivo. Premi "elimina" e servono fino a 30 giorni perché esca davvero dai loro sistemi. In alcuni casi non esce affatto: nel 2025, un'ordinanza del tribunale nel caso NYT v. OpenAI ha imposto a OpenAI di conservare i dati delle conversazioni, incluse quelle che gli utenti avevano cancellato.

Stessa scena su Claude. Conservazione di 30 giorni per impostazione predefinita. Se l'opzione di training di Anthropic è attiva (e da ottobre 2025 è opt-in per impostazione predefinita, il che significa che chiunque abbia cliccato sul prompt senza leggerlo ha detto sì), quella conversazione può essere conservata fino a cinque anni.

Su Gemini, fino a 18 mesi. Disattivi "Mantieni attività" e Google conserva comunque i dati per almeno 72 ore.

Cosa significa davvero "conservato"

Conservato non significa sigillato in una cassaforte. Conservato significa che il provider può aprirlo, cercarlo, indicizzarlo, analizzarlo e consegnarlo ai sistemi e alle persone a cui sceglie di dare accesso. Il loro team di revisione può aprirlo. Le loro pipeline di training possono ingerirlo. I loro ingegneri possono interrogarlo durante il debug.

Se un file sia cifrato su disco è una domanda che riguarda gli attaccanti esterni. Non è la domanda che conta per il tuo contratto. La domanda che conta è: chi, all'interno dell'azienda, e quali dei loro sistemi interni possono accederci. Su un piano consumer, la risposta è: parecchi di loro.

L'ordinanza del tribunale non era un caso unico per OpenAI

Un breve riepilogo, perché quasi nessuno ne ha sentito parlare. Nel 2023, il New York Times ha fatto causa a OpenAI per l'uso degli articoli del Times nell'addestramento dei suoi modelli. A metà del 2025, nel corso di quella causa in corso, un tribunale federale ha ordinato a OpenAI di preservare sostanzialmente tutte le conversazioni degli utenti di ChatGPT come potenziali prove, incluse le conversazioni che gli utenti avevano già cancellato. Gli utenti comuni non erano parti della causa. I loro dati sono stati preservati lo stesso.

Quell'ordinanza è capitata prima a OpenAI, ma il principio vale per qualsiasi provider che conservi le tue conversazioni. Anthropic, Google e ogni altro provider che trattiene dati degli utenti è soggetto allo stesso tipo di procedimento legale. Un'ordinanza di conservazione, una citazione a comparire, una richiesta di discovery. Qualsiasi tribunale in qualsiasi giurisdizione in cui l'azienda opera può costringerla a produrre o preservare i registri che già detiene.

La regola è semplice. Se i dati esistono, possono essere richiesti. L'unica vera difesa è non trattenere i dati in primo luogo.

Il tuo contratto non è una query di ricerca. È un documento con il tuo nome, il tuo stipendio e il tuo datore di lavoro sopra. E in questo momento è sulla macchina di qualcun altro.

Con la conservazione zero dei dati, lo stesso contratto viene elaborato, ricevuta la risposta, e sparito. Nessuna copia viene scritta su disco. Nessun dipendente può aprirlo dopo, perché il "dopo" non esiste. Nessun tribunale può imporre la sua produzione, perché non c'è nulla da produrre. I tuoi dati sono al sicuro perché non sono mai stati salvati.


Scena 2: la tua idea è il prodotto

La pagina di aiuto ufficiale di Gemini di Google è esplicita: "Per favore non inserire informazioni riservate che non vorresti che un revisore veda o che Google utilizzi per migliorare i nostri servizi, incluse le tecnologie di machine learning."

Non è un avviso per stanare i malintenzionati. È un'ammissione che le conversazioni che hai con Gemini sono materiale per revisione umana e miglioramento del prodotto. Quelle conversazioni revisionate possono essere conservate per tre anni.

Questo conta per quello che la gente fa davvero con l'IA. Una nuova idea. Una proposta per un cliente. Una linea di prodotto che nessuno ha ancora annunciato. Un testo che il mondo non ha ancora visto. Lo incolli nel modello. Fai brainstorming. Rifinisci. Descrivi la cosa che non hai ancora rilasciato.

All'altro capo di quella conversazione c'è un'azienda il cui lavoro è capire cosa stanno costruendo le persone, cosa stanno cercando e quanto sono disposte a pagare. La stessa azienda che vende pubblicità, vende strumenti concorrenti e vende prodotti IA propri. La tua idea non ancora rilasciata è, nel senso più letterale, informazione preziosa per loro.

Le app aggregatrici di terze parti aggravano l'esposizione. Una piccola azienda avvolge diversi modelli dietro un'unica interfaccia, inserisce i propri analytics e il proprio staff tra te e il provider, ed eredita l'accesso a tutto quello che invii. La superficie di fiducia raddoppia. La supervisione no.

E niente di tutto questo esiste in isolamento. Le aziende dietro i più grandi prodotti IA sono le stesse che ti tracciano sul web da anni. I loro pixel pubblicitari sanno già quali siti visiti, quali prodotti stai valutando e quali problemi stai cercando di risolvere. Aggiungere le tue conversazioni con l'IA a quel profilo non è una questione di privacy separata. È lo stesso profilo, con un flusso di informazioni molto più ricco.

Abbiamo costruito Wysor perché il profilo non dovrebbe diventare più ricco. Leggi come gestiamo il tracciamento sul nostro sito →

Il rischio non è quello che hai sfogato nell'IA. Il rischio è l'idea che hai incollato dentro prima di essere pronto a mostrarla a qualcuno.


Scena 3: il messaggio vocale

Stai camminando e parlando. Racconti al telefono di un sintomo, un cliente, una lite brutta.

Ecco cosa succede dopo, a seconda del pulsante che hai premuto:

ChatGPT conserva l'audio per tutto il tempo in cui la chat esiste. Non è materiale di training, ma è lì.

Claude invia l'audio ai server di Anthropic, lo elimina entro circa 24 ore, e fa passare il text-to-speech attraverso ElevenLabs, una terza parte, senza alcun accordo pubblico di conservazione zero tra di loro.

Gemini elabora la parola di attivazione localmente ma spedisce la richiesta vera e propria a Google. Google ha già pagato 68 milioni di dollari per chiudere una causa sulla gestione dei dati vocali.

Siri conserva le trascrizioni elaborate sui server fino a due anni. Apple ha chiuso la propria causa sui dati vocali con 95 milioni di dollari dopo che Siri si attivava quando nessuno aveva detto "Hey Siri".

Wysor Voice sull'app iOS trascrive sul dispositivo. L'audio non lascia mai il tuo telefono.


Scena 4: la causa che non ti aspettavi

Febbraio 2026. Una causa chiamata United States v. Heppner ha stabilito che le tue conversazioni con gli assistenti IA non sono protette dal segreto professionale tra avvocato e cliente, e non sono nemmeno work product.

Il ragionamento del tribunale era semplice: le policy dei provider permettono la divulgazione alle autorità e possono consentire l'uso per il training. Non c'è una ragionevole aspettativa di riservatezza. Quindi qualsiasi cosa su un piano IA consumer è potenzialmente acquisibile in sede di procedimenti legali.

Rileggilo. La cosa che hai detto a ChatGPT è la cosa che un avvocato può citare a comparire.


Cosa significa davvero "conservazione zero dei dati"

La conservazione zero dei dati (ZDR) è un accordo contrattuale con un provider IA che cambia a livello tecnico il ciclo di vita della tua conversazione.

Sotto un normale piano consumer, ogni messaggio che invii viene registrato sui server del provider. Viene conservato per giorni, mesi o anni. Può essere messo in coda per la revisione umana. Può alimentare il modello successivo. La cancellazione è un processo che avviene dopo, se avviene.

Sotto la conservazione zero dei dati, nulla di tutto questo accade. Il tuo messaggio raggiunge il provider. Il modello produce una risposta. La risposta ti viene restituita. In quel momento, la richiesta e la risposta vengono scartate dall'infrastruttura del provider. Nessun log. Nessuna copia di backup. Nessun dato di training conservato.

I classificatori automatizzati di sicurezza continuano a girare nel momento della richiesta (ogni provider importante lo richiede, e lo facciamo anche noi, per impedire che il modello venga usato per abusi gravi), ma vengono eseguiti sulla richiesta in tempo reale e non creano un registro conservato della tua conversazione successivamente.

Non c'è nulla da citare a comparire dopo, perché nulla è stato conservato. Non c'è nulla su cui addestrare dopo, perché i dati non esistono un secondo dopo la generazione della risposta.

Questa è la protezione che le grandi aziende pagano e per cui firmano accordi di procurement. Tutti gli altri restano su piani dove la conservazione è l'impostazione predefinita.


Quindi qual è la differenza con Wysor?

Non ti chiediamo di fidarti di un interruttore. Firmiamo contratti.

La conservazione zero dei dati è l'impostazione predefinita su Wysor, non un upgrade. Ogni provider verso cui facciamo routing (Claude, GPT-5, Gemini, Perplexity e ogni modello open-source che offriamo) è coperto da un accordo dedicato che imposta la conservazione al minimo tecnico. Per la maggior parte dei provider, quel minimo è zero. La tua conversazione viene elaborata e sparita.

Non addestriamo mai sui tuoi dati. Non sul piano gratuito. Non su quello a pagamento. Non su nessun piano. Sta nel contratto, non in un'impostazione che devi ricordarti di spuntare.

Molti dei nostri modelli girano su server all'interno dell'UE. Il tuo messaggio riceve risposta su infrastruttura europea e i tuoi dati non lasciano l'UE per essere elaborati. Puoi vedere quali modelli sono ospitati in UE nella nostra pagina modelli.

Sull'app iOS, la trascrizione vocale gira sul tuo dispositivo.

E non ti serve un team di procurement per accedere a tutto questo. Ti iscrivi.


In sintesi

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Conservazione predefinita30 giorni (fino a 5 anni se il training è attivo)Finché l'account è attivo18 mesiZero per la maggior parte dei provider
Training sui tuoi datiOpt-in, attivo per impostazione predefinitaAttivo per impostazione predefinitaAttivo per impostazione predefinitaMai
Dove vengono elaborati i tuoi datiUSA (impostazione predefinita consumer)USA (impostazione predefinita consumer)USA (impostazione predefinita consumer)UE per molti modelli
VoceAudio sui server, circa 24hConservato con la chatInviato a GoogleSul dispositivo (app iOS)
Come si ottiene20 $/mese20 $/mese20 $/meseFunziona anche il piano gratuito

Cosa significa tutto questo davvero

La tua IA conosce il tuo stipendio, i tuoi sintomi e la cosa che hai paura di dire al tuo partner. Conosce anche il tuo prodotto non ancora rilasciato, i tuoi prezzi, la tua strategia con i clienti e l'idea che nessun altro ha ancora sentito. Niente di tutto questo è un problema di funzionalità. Tutto questo è un problema di archiviazione.

Wysor protegge entrambi. Le tue conversazioni personali restano tue. Anche quelle di lavoro. La tua nuova idea non è materiale per il training run di qualcun altro. Il tuo lavoro con i clienti non è informazione per un'azienda che vende anche strumenti concorrenti. I tuoi prezzi non sono una riga nella coda di un revisore.

Diamo a ogni utente, dall'account gratuito al piano business completo, il tipo di protezione della privacy che prima richiedeva un ciclo di procurement.

Eliminare dovrebbe voler dire eliminare. La voce dovrebbe restare sul tuo telefono. La tua prossima idea dovrebbe restare tua.


Continua a leggere

Inizia con Wysor →


Tutte le affermazioni provengono da policy sulla privacy ufficiali, termini di servizio, documenti di tribunale e documentazione dei provider a febbraio 2026.