Pot folosi doar versiunea gratuită de ChatGPT sau Claude?
Este cea mai rezonabilă întrebare pe care o pune oricine înainte de a plăti pentru un instrument AI.
Versiunile gratuite sunt bune. Răspund la aproape orice. Așa că, înainte de a te înscrie pentru ceva plătit, întrebarea sinceră este: chiar am nevoie de mai mult?
Am vrut să-ți dăm un răspuns real în loc de unul înfricoșător, așa că ne-am așezat și am citit politicile reale de confidențialitate ale OpenAI (ChatGPT) și Anthropic (Claude). Pe ambele. De la cap la coadă.
Iată versiunea sinceră.
Ce păstrează cu adevărat versiunile gratuite
Hai să rămânem la ceea ce spun politicile, în limbaj simplu.
Când folosești versiunea gratuită de ChatGPT, OpenAI păstrează:
- Tot ce tastezi, plus orice fișiere, imagini, audio sau video pe care le încarci.
- Numele tău, emailul, informațiile contului și orice detalii de profil.
- Adresa ta IP, browserul, dispozitivul, fusul orar și modul în care folosești produsul.
- Locația ta generală din IP. Și locația precisă, dacă o pornești.
- Contactele tale, dacă le conectezi vreodată, inclusiv care dintre contactele tale folosesc și serviciul.
Când folosești versiunea gratuită de Claude, Anthropic păstrează:
- Fiecare prompt și fiecare răspuns. Politica este directă: dacă incluzi date personale într-un prompt, acestea sunt colectate și pot apărea și în răspuns.
- Numele tău, emailul, numărul de telefon, informațiile de plată dacă faci vreodată upgrade.
- IP-ul, dispozitivul, browserul, locația derivată din IP și modul în care folosești produsul.
- Întreaga conversație dacă apeși vreodată thumbs up sau thumbs down. Aceasta este stocată ca feedback.
Așa că, chiar și cu un marker negru atent peste câteva cuvinte, majoritatea metadatelor din jurul mesajului tău sunt colectate oricum, pe ambele produse, pe nivelul gratuit.
„Va fi conversația mea folosită pentru antrenarea AI-ului?"
Atât pe ChatGPT, cât și pe Claude, setarea implicită a versiunii gratuite este da. Există un opt-out. Este o setare pe care trebuie să o găsești și să o oprești singur.
Asta înseamnă că majoritatea oamenilor, care nu au deschis niciodată setările de confidențialitate, antrenează următorul model cu munca lor. Cu drafturile lor. Cu întrebarea pusă târziu noaptea.
Această parte nu este o opinie Wysor. Sunt politicile.
OpenAI spune că folosește Conținutul „pentru a îmbunătăți și dezvolta serviciile noastre și a desfășura cercetare, de exemplu pentru a dezvolta funcții noi" și menționează explicit antrenarea modelelor care alimentează ChatGPT, cu un opt-out.
Anthropic spune că „poate folosi Input-urile și Output-urile tale pentru a antrena modelele noastre și a îmbunătăți serviciile noastre, dacă nu faci opt-out prin setările contului." De asemenea, notează două cazuri în care opt-out-ul nu se aplică: orice marcat pentru revizuire de siguranță și orice ai trimis ca feedback.
Așa că orice lipești, într-un cont gratuit cu setări implicite, este la dispoziție pentru antrenament.
„Dar Conversațiile Temporare?"
ChatGPT are un mod Conversații Temporare. Pare răspunsul evident: nimic salvat în istoricul tău, nimic folosit pentru antrenament. Mulți oameni cărora le pasă de confidențialitate îl folosesc pentru exact acest tip de lucru.
Este mai bun decât un chat normal. Nu este radiera pe care majoritatea oamenilor o presupun.
Politica proprie a OpenAI spune că Conversațiile Temporare „vor fi șterse automat în 30 de zile (cu excepția cazului în care trebuie să le păstrăm din motive de siguranță sau legale)." Conversația stă pe serverele lor până la 30 de zile mai întâi.
Așa că în 2025, când o instanță federală americană a ordonat OpenAI să păstreze esențial toate conversațiile ChatGPT ca probe într-un proces fără legătură, acel ordin a inclus și chat-uri pe care utilizatorii le credeau efemere. Utilizatorii obișnuiți nu erau părți la caz. Datele lor au fost păstrate oricum.
Modul temporar este o funcție utilă. Nu este același lucru cu mesajul care nu există niciodată.
„Upgrade-ul la Plus sau Pro rezolvă vreuna dintre acestea?"
În mare parte, nu. Politicile de confidențialitate pentru versiunea gratuită, ChatGPT Plus și ChatGPT Pro sunt aceeași politică pentru consumatori. Același lucru este valabil pentru Claude.ai gratuit și Claude Pro. Plătirea îți oferă mai mult acces la modele, mai multă utilizare, mai multe funcții. Nu te mută la o regulă diferită.
Cartea de reguli se schimbă doar când o companie cumpără un plan enterprise, semnează un acord și trece prin achiziții. Atunci se aplică un set diferit de termeni. Aceasta este partea pe care majoritatea utilizatorilor obișnuiți nu o văd, și este partea care contează.
„Ce-ar fi dacă aș redacta doar părțile sensibile?"
O soluție de evitare comună. Acoperă salariul, schimbă numele companiei, apoi lipește. Patru motive pentru care funcționează mai puțin decât ai spera.
Redactarea trebuie să fie perfectă de fiecare dată. Ratezi o linie, lași un nume în subsol, și acel pic stă acum pe un server pe care nu-l controlezi. Niciun undo. Și nu stă acolo singur, stă atașat de contul tău, legat de fiecare alt mesaj pe care l-ai trimis vreodată.
Întrebarea trădează redactarea. „Este această clauză de neconcurență aplicabilă în California pentru un inginer senior plătit peste pragul standard?" Nu ai tastat salariul tău, dar tocmai i-ai spus modelului rolul tău, statul tău și că câștigi peste un număr specific. Numele tău, IP-ul, adresa, dispozitivul și restul istoricului mesajelor tale sunt deja atașate acelui profil. Redactarea este cosmetică, imaginea este deja acolo.
Imaginile poartă propria mărturisire. Când încarci o fotografie, fișierul poartă de obicei metadate cu el. Date EXIF: coordonate GPS ale locului unde a fost făcută fotografia, marcaj de timp exact, marca și numărul de serie al camerei sau telefonului. Aceasta este aceeași metadată pe care o folosesc echipele de aplicare a legii și criminalistică pentru a plasa o persoană la fața locului. Majoritatea oamenilor nu o elimină niciodată înainte de încărcare. Conținutul vizibil al imaginii este ceea ce ai redactat. Conținutul invizibil este complet intact.
Stocat nu înseamnă sigilat. Conversațiile stau în sisteme unde evaluatorii de siguranță, conductele de antrenament și inginerii le pot deschide. Pagina de ajutor Gemini de la Google le spune utilizatorilor direct: „vă rugăm să nu introduceți informații confidențiale pe care nu ați dori să le vadă un evaluator."
Redactarea este în regulă pentru lucruri cu miză scăzută. Nu este protecția pe care majoritatea oamenilor o cred odată ce ceea ce lipești contează cu adevărat.
Unde se așază Wysor
Nu am vrut să redactăm și să sperăm. Am vrut un instrument pe care să-l putem folosi.
Așa că am construit Wysor pe baza acelorași modele pe care le-ai folosi gratuit în altă parte. Claude. GPT-5. Gemini. Perplexity. Open-source. Diferența este acordul de dedesubt.
- Conversațiile tale nu sunt folosite pentru a antrena niciun model. Niciodată. Nici pe gratuit, nici pe plătit. Este în contractul nostru cu fiecare furnizor, nu o setare în contul tău.
- Folosim Zero Retenție de Date (ZDR) implicit cu majoritatea furnizorilor către care direcționăm. Furnizorul îți procesează mesajul, returnează răspunsul și șterge cererea și răspunsul din infrastructura sa. Fără fereastră de 30 de zile. Niciun istoric de chat care stă pe serverul altcuiva.
- Cercetare integrată în baze de date juridice și medicale. Tipul de muncă pe care o faci în acele domenii, o clauză de contract, o interacțiune medicamentoasă, o căutare de caz, este exact tipul de muncă pe care nu vrei să fie stocat pe serverul altcuiva. Cu Wysor nu este.
- Multe dintre modelele noastre rulează pe servere găzduite în UE. Mesajul tău primește răspuns în Europa, iar datele tale rămân acolo.
- Pe aplicația iOS, transcrierea vocală se întâmplă pe telefonul tău. Audio-ul nu îl părăsește niciodată.
Nu trebuie să redactezi un contract înainte de a-l lipi în Wysor, pentru că contractul nu este păstrat. De asemenea, nu ai nevoie de un departament de achiziții pentru a obține nimic din toate acestea. Te înregistrezi și asta este implicit.
Pe scurt
| ChatGPT (gratuit) | Claude (gratuit) | Wysor | |
|---|---|---|---|
| Conversațiile tale sunt păstrate | Da, până le ștergi | Da, până le ștergi | Zero retenție de date cu majoritatea furnizorilor, implicit |
| Folosit pentru antrenarea modelului | Pornit implicit, opt-out disponibil | Pornit implicit, opt-out disponibil | Niciodată, prin contract |
| Ștergerea | Până la 30 de zile, mai mult dacă este cerut legal | Până la 30 de zile din back-end | Furnizorul șterge imediat sub ZDR pentru majoritatea modelelor |
| Unde sunt procesate datele tale | SUA și alte țări | SUA, cu acorduri de transfer UE | Găzduite în UE pentru multe modele |
| Note vocale | Stocate cu chat-ul | Trimise pe servere | Pe dispozitiv pe iOS |
| Ce se schimbă dacă plătești | Funcții. Postura de confidențialitate este aceeași | Funcții. Postura de confidențialitate este aceeași | Aceeași confidențialitate pe gratuit și plătit |
Deci, poți folosi doar versiunea gratuită?
Pentru întrebări de zi cu zi, da. Nu este nimic în neregulă cu folosirea unui instrument gratuit pentru a pune o întrebare pentru un instrument gratuit.
Motivul pentru care am construit Wysor este că aproape nimeni nu folosește AI doar pentru întrebări pentru un instrument gratuit. Odată ce l-ai încercat câteva săptămâni, contractul intră. Întrebarea medicală intră. Strategia de prețuri intră. Lucrul pe care nu i l-ai spus încă nimănui intră.
Un marker negru la intrare nu este un instinct rău. Doar nu este protecția pe care majoritatea oamenilor o cred. Protecția este în ceea ce este permis companiei să facă cu ceea ce ai trimis, și asta este stabilit de politică, nu de redactare.
Dacă ai prefera să nu fie nevoie să te gândești la asta de fiecare dată când deschizi un instrument AI, asta este lacuna pe care am construit Wysor să o umple.
Continuă să citești
- AI-ul tău știe mai mult decât crezi: o comparație de confidențialitate între Claude, ChatGPT și Gemini
- Confidențialitate completă: datele tale nu părăsesc niciodată controlul tău
- Notele tale vocale sunt trimise la Apple. Ale noastre nu.
- Shadow AI: când angajații tăi folosesc ChatGPT pe la spatele tău
Provenit din politica de confidențialitate pentru consumatori a OpenAI și politica de confidențialitate pentru consumatori a Anthropic (în vigoare din 12 ianuarie 2026), citite în întregime în aprilie 2026.



