Posso usare semplicemente la versione gratuita di ChatGPT o Claude?
Technology

Posso usare semplicemente la versione gratuita di ChatGPT o Claude?

È la domanda più ragionevole che chiunque si fa prima di pagare uno strumento di AI.

Le versioni gratuite sono buone. Rispondono a quasi tutto. Quindi, prima di iscriversi a qualcosa di a pagamento, la domanda onesta è: ho davvero bisogno di più di così?

Volevamo darti una risposta vera invece di una risposta allarmista, quindi ci siamo seduti e abbiamo letto le privacy policy effettive di OpenAI (ChatGPT) e Anthropic (Claude). Entrambe. Da cima a fondo.

Ecco la versione onesta.


Cosa conservano davvero le versioni gratuite

Atteniamoci a quello che dicono le policy, in parole semplici.

Quando usi la versione gratuita di ChatGPT, OpenAI conserva:

  • Tutto quello che scrivi, oltre a qualsiasi file, immagine, audio o video che carichi.
  • Il tuo nome, l'email, le informazioni dell'account e qualsiasi dato del profilo.
  • Il tuo indirizzo IP, il browser, il dispositivo, il fuso orario e il modo in cui usi il prodotto.
  • La tua posizione generica derivata dall'IP. Anche quella precisa, se la attivi.
  • I tuoi contatti, se li colleghi, inclusi quali dei tuoi contatti usano anche il servizio.

Quando usi la versione gratuita di Claude, Anthropic conserva:

  • Ogni prompt e ogni risposta. La policy è diretta: se includi dati personali in un prompt, vengono raccolti, e possono comparire anche nella risposta.
  • Il tuo nome, l'email, il numero di telefono, le informazioni di pagamento se mai farai l'upgrade.
  • Il tuo IP, il dispositivo, il browser, la posizione derivata dall'IP e il modo in cui usi il prodotto.
  • L'intera conversazione se mai cliccherai pollice in su o pollice in giù. Quella viene archiviata come feedback.

Quindi anche con un attento pennarello nero su qualche parola, la maggior parte dei metadati attorno al tuo messaggio viene comunque raccolta, su entrambi i prodotti, sul piano gratuito.


"La mia conversazione verrà usata per addestrare l'AI?"

Sia su ChatGPT sia su Claude, l'impostazione predefinita della versione gratuita è sì. C'è un opt-out. È un'impostazione che devi trovare e disattivare da solo.

Questo significa che la maggior parte delle persone, che non ha mai aperto le impostazioni della privacy, sta addestrando il modello successivo con il proprio lavoro. Con le proprie bozze. Con la domanda che ha fatto a tarda notte.

Questa parte non è un'opinione di Wysor. Sono le policy.

OpenAI dice che usa i Contenuti "per migliorare e sviluppare i nostri Servizi e condurre ricerche, ad esempio per sviluppare nuove funzionalità", e menziona esplicitamente l'addestramento dei modelli che alimentano ChatGPT, con un opt-out.

Anthropic dice che "potrebbe usare i tuoi Input e Output per addestrare i nostri modelli e migliorare i nostri Servizi, a meno che tu non scelga di non farlo tramite le impostazioni del tuo account". Nota anche due casi in cui l'opt-out non si applica: tutto ciò che viene segnalato per revisione di sicurezza e tutto ciò che hai inviato come feedback.

Quindi qualunque cosa incolli, in un account gratuito con le impostazioni predefinite, è materiale valido per l'addestramento.


"E le Chat Temporanee?"

ChatGPT ha una modalità Chat Temporanee. Sembra la risposta ovvia: niente salvato nella cronologia, niente usato per l'addestramento. Molte persone che tengono alla privacy la usano proprio per questo tipo di cose.

È meglio di una chat normale. Non è la gomma da cancellare che la maggior parte delle persone immagina.

La policy di OpenAI dice che le Chat Temporanee "verranno automaticamente cancellate entro 30 giorni (a meno che non dobbiamo conservarle per motivi di sicurezza o legali)". La chat resta sui loro server fino a 30 giorni prima.

Quindi nel 2025, quando un tribunale federale statunitense ha ordinato a OpenAI di conservare praticamente tutte le conversazioni di ChatGPT come prove in una causa non correlata, quell'ordine ha incluso anche le chat che gli utenti credevano effimere. Gli utenti normali non erano parti del processo. I loro dati sono stati trattenuti comunque.

La modalità temporanea è una funzione utile. Non è la stessa cosa che il messaggio non sia mai esistito.


"Passare a Plus o Pro risolve qualcosa di tutto questo?"

Per lo più no. Le privacy policy per la versione gratuita, ChatGPT Plus e ChatGPT Pro sono la stessa policy consumer. Lo stesso vale per Claude.ai gratuito e Claude Pro. Pagare ti dà accesso a più modelli, più utilizzo, più funzionalità. Non ti sposta su un regolamento diverso.

Il regolamento cambia solo quando un'azienda acquista un piano enterprise, firma un accordo e passa attraverso il processo di approvvigionamento. Allora si applica un insieme di termini diverso. Questa è la parte che la maggior parte degli utenti normali non vede, ed è la parte che conta.


"E se oscurassi solo le parti sensibili?"

Una soluzione comune. Cancellare lo stipendio, sostituire il nome dell'azienda, poi incollare. Quattro motivi per cui funziona meno di quanto vorresti.

L'oscuramento deve essere perfetto ogni volta. Saltare una riga, lasciare un nome in un piè di pagina, e quel pezzo è ora su un server che non controlli. Nessun "annulla". E non resta lì da solo, resta collegato al tuo account, agganciato a ogni altro messaggio che hai mai inviato.

La domanda stessa svela l'oscuramento. "Questo patto di non concorrenza è applicabile in California per un ingegnere senior pagato sopra la soglia standard?" Non hai scritto il tuo stipendio, ma hai appena detto al modello il tuo ruolo, il tuo stato e che guadagni sopra una cifra specifica. Il tuo nome, il tuo IP, il tuo indirizzo, il tuo dispositivo e il resto della tua cronologia di messaggi sono già collegati a quel profilo. L'oscuramento è cosmetico, l'immagine è già lì.

Le immagini portano con sé la propria confessione. Quando carichi una foto, il file di solito porta con sé dei metadati. Dati EXIF: coordinate GPS di dove è stata scattata la foto, l'orario esatto, la marca e il numero di serie della fotocamera o del telefono. Sono gli stessi metadati che le forze dell'ordine e le squadre forensi usano per collocare una persona sulla scena. La maggior parte delle persone non li rimuove mai prima di caricare. Il contenuto visibile dell'immagine è quello che hai oscurato. Il contenuto invisibile è completamente intatto.

Archiviato non significa sigillato. Le conversazioni risiedono in sistemi dove revisori della sicurezza, pipeline di addestramento e ingegneri possono aprirle. La pagina di aiuto di Gemini di Google dice direttamente agli utenti: "per favore non inserire informazioni riservate che non vorresti che un revisore vedesse."

Oscurare va bene per cose a basso rischio. Non è la protezione che molte persone pensano sia, una volta che quello che incolli conta davvero.


Dove si colloca Wysor

Non volevamo oscurare e sperare. Volevamo uno strumento che potessimo semplicemente usare.

Quindi abbiamo costruito Wysor sopra gli stessi modelli che useresti gratis altrove. Claude. GPT-5. Gemini. Perplexity. Open-source. La differenza è l'accordo che c'è sotto.

  • Le tue conversazioni non vengono usate per addestrare alcun modello. Mai. Né nel piano gratuito, né in quello a pagamento. È nel nostro contratto con ciascun fornitore, non un'impostazione nel tuo account.
  • Usiamo Zero Data Retention (ZDR) per impostazione predefinita con la maggior parte dei fornitori a cui ci colleghiamo. Il fornitore elabora il tuo messaggio, restituisce la risposta e cancella la richiesta e la risposta dalla propria infrastruttura. Nessuna finestra di 30 giorni. Nessuna cronologia chat sul server di qualcun altro.
  • Ricerca integrata su databank legali e medici. Il tipo di lavoro che fai in questi ambiti, una clausola contrattuale, un'interazione tra farmaci, la consultazione di un caso, è esattamente il tipo di lavoro che non vuoi archiviato sul server di qualcun altro. Con Wysor non lo è.
  • Molti dei nostri modelli girano su server ospitati nell'UE. Il tuo messaggio riceve risposta in Europa e i tuoi dati restano lì.
  • Sull'app iOS, la trascrizione vocale avviene sul tuo telefono. L'audio non lo lascia mai.

Non hai bisogno di oscurare un contratto prima di incollarlo in Wysor, perché il contratto non viene conservato. E non hai nemmeno bisogno di un ufficio acquisti per ottenere tutto questo. Ti iscrivi e questa è l'impostazione predefinita.


A colpo d'occhio

ChatGPT (gratuito)Claude (gratuito)Wysor
Le tue conversazioni vengono conservateSì, finché non le cancelliSì, finché non le cancelliZero data retention con la maggior parte dei fornitori, per impostazione predefinita
Usate per addestrare il modelloAttivo per impostazione predefinita, opt-out disponibileAttivo per impostazione predefinita, opt-out disponibileMai, per contratto
CancellazioneFino a 30 giorni, di più se richiesto per leggeFino a 30 giorni dal back-endIl fornitore cancella immediatamente con ZDR per la maggior parte dei modelli
Dove vengono elaborati i tuoi datiStati Uniti e altri paesiStati Uniti, con accordi di trasferimento UEHosting nell'UE per molti modelli
Note vocaliArchiviate insieme alla chatInviate ai serverSul dispositivo su iOS
Cosa cambia se paghiFunzionalità. La postura sulla privacy è la stessaFunzionalità. La postura sulla privacy è la stessaStessa privacy nel piano gratuito e a pagamento

Quindi, puoi usare semplicemente la versione gratuita?

Per le domande di tutti i giorni, sì. Non c'è niente di male nell'usare uno strumento gratuito per fare una domanda da strumento gratuito.

Il motivo per cui abbiamo creato Wysor è che quasi nessuno usa l'AI solo per domande da strumento gratuito. Una volta provata per qualche settimana, ci finisce dentro il contratto. Ci finisce dentro la domanda medica. Ci finisce dentro la strategia di prezzo. Ci finisce dentro la cosa che non hai ancora detto a nessuno.

Un pennarello nero in entrata non è un brutto istinto. Semplicemente non è la protezione che la maggior parte delle persone crede sia. La protezione sta in ciò che l'azienda è autorizzata a fare con quello che hai inviato, e questo è stabilito dalla policy, non dall'oscuramento.

Se preferiresti non doverci pensare ogni volta che apri uno strumento di AI, è proprio questo il vuoto che abbiamo creato Wysor per colmare.

Prova Wysor gratis →


Continua a leggere


Tratto dalla privacy policy consumer di OpenAI e dalla privacy policy consumer di Anthropic (in vigore dal 12 gennaio 2026), lette integralmente ad aprile 2026.