ChatGPT vs Claude vs Gemini: comparație de confidențialitate AI (2026)
Technology

ChatGPT vs Claude vs Gemini: comparație de confidențialitate AI (2026)

Încearcă asta înainte să continui să citești. Deschide ChatGPT și tastează: „Care este cel mai personal lucru pe care ți l-am cerut vreodată?"

Răspunsul va fi mai specific decât te așteptai. Mai intim. Mai revelator. S-ar putea să nici nu-ți amintești că l-ai tastat. Modelul își amintește.

Pentru că AI-ul are toate. Contractul cu salariul tău pe el. Nota vocală despre o iritație. Mesajul greu pe care l-ai redactat către șeful tău la unsprezece noaptea. Întrebarea pe care ai fost prea jenat să o pui pe Google.

Așa că iată întrebarea incomodă pe care nimeni nu o pune pe pagina de prețuri. Unde merg de fapt toate acestea?

Am citit politicile ca tu să nu fie nevoie. Ce am găsit este motivul pentru care există Wysor.


Scena 1: Contractul pe care l-ai lipit

Pui un contract de 14 pagini în ChatGPT. Evidențiezi salariul, clauza de neconcurență, clauza ciudată despre proprietatea intelectuală.

Pe un plan pentru consumatori, acea conversație stă pe serverele OpenAI atâta timp cât contul tău este activ. Apeși „șterge" și durează până la 30 de zile să iasă cu adevărat din sistemele lor. În unele cazuri nu iese deloc: în 2025, un ordin judecătoresc în NYT v. OpenAI a cerut OpenAI să păstreze datele conversațiilor, inclusiv conversațiile pe care utilizatorii le șterseseră.

Aceeași scenă pe Claude. Stocate 30 de zile implicit. Dacă comutatorul de antrenament al Anthropic este activat (și din octombrie 2025 este opt-in implicit, însemnând că oricine a făcut clic prin prompt fără să citească a spus da), acea conversație poate fi păstrată până la cinci ani.

Pe Gemini, până la 18 luni. Oprește „Keep Activity" și Google încă păstrează datele cel puțin 72 de ore.

Ce înseamnă cu adevărat „stocat"

Stocat nu înseamnă sigilat într-un seif. Stocat înseamnă că furnizorul îl poate deschide, căuta, indexa, analiza și transmite sistemelor și oamenilor cărora alege să le dea acces. Echipa lor de revizuire îl poate deschide. Conductele lor de antrenament îl pot ingera. Inginerii lor îl pot interoga în timpul depanării.

Dacă un fișier este criptat pe disc este o întrebare despre atacatori externi. Nu este întrebarea care contează pentru contractul tău. Întrebarea care contează este cine din interiorul companiei și care dintre sistemele lor interne îl pot atinge. Pe un plan pentru consumatori, răspunsul este: destul de mulți dintre ei.

Ordinul judecătoresc nu a fost unic pentru OpenAI

O scurtă recapitulare, pentru că majoritatea oamenilor nu au auzit niciodată despre asta. În 2023, New York Times a dat în judecată OpenAI pentru folosirea articolelor Times pentru a-și antrena modelele. La mijlocul anului 2025, în timpul acelui caz în desfășurare, un tribunal federal a ordonat OpenAI să păstreze esențial toate conversațiile utilizatorilor ChatGPT ca posibilă probă, inclusiv conversațiile pe care utilizatorii le șterseseră deja. Utilizatorii obișnuiți nu erau părți în proces. Datele lor au fost păstrate oricum.

Acel ordin s-a întâmplat să cadă întâi pe OpenAI, dar principiul se aplică oricărui furnizor care îți păstrează conversațiile. Anthropic, Google și fiecare alt furnizor care reține datele utilizatorilor sunt supuse aceluiași tip de proces juridic. Un ordin de păstrare, o citație, o cerere de descoperire. Orice instanță din orice jurisdicție în care operează compania o poate constrânge să producă sau să păstreze înregistrările pe care deja le deține.

Regula este simplă. Dacă datele există, pot fi cerute. Singura apărare reală este să nu deții datele în primul rând.

Contractul tău nu este o interogare de căutare. Este un document cu numele tău, salariul tău și angajatorul tău pe el. Și chiar acum, stă pe mașina altcuiva.

Cu zero retenție de date, același contract este procesat, primit răspuns și dispărut. Nicio copie nu este scrisă pe disc. Niciun angajat nu îl poate deschide mai târziu, pentru că mai târziu nu există. Nicio instanță nu îi poate constrânge producerea, pentru că nu este nimic de produs. Datele tale sunt în siguranță pentru că nu au fost niciodată salvate.


Scena 2: Ideea ta este produsul

Pagina proprie de ajutor Gemini de la Google este explicită: „Vă rugăm să nu introduceți informații confidențiale pe care nu ați dori să le vadă un evaluator sau pe care Google să le folosească pentru a îmbunătăți serviciile noastre, inclusiv tehnologiile de machine-learning."

Acesta nu este un avertisment despre prinderea unor actori răi. Este o recunoaștere că conversațiile pe care le ai cu Gemini sunt material pentru revizuire umană și îmbunătățire a produsului. Acele conversații revizuite pot fi păstrate trei ani.

Asta contează din cauza a ce folosesc oamenii cu adevărat AI. O idee nouă. O propunere pentru un client. O linie de produs pe care nimeni nu a anunțat-o. O bucată de scriere pe care lumea nu a văzut-o. O lipești în model. Brainstorming. Rafinezi. Descrii lucrul pe care nu l-ai lansat încă.

La capătul îndepărtat al acelei conversații stă o companie a cărei afacere este să înțeleagă ce construiesc oamenii, ce cer și pentru ce sunt dispuși să plătească. Aceeași companie care vinde reclame, vinde instrumente concurente și vinde propriile produse AI. Ideea ta nelansată este, în cel mai literal sens, inteligență valoroasă pentru ei.

Aplicațiile agregatoare terțe agravează expunerea. O companie mică învelește mai multe modele în spatele unei interfețe, își inserează propriile analize și propriul personal între tine și furnizor și moștenește accesul la tot ce trimiți. Suprafața de încredere se dublează. Supravegherea nu.

Și nimic din toate acestea nu există în izolare. Companiile din spatele celor mai mari produse AI sunt aceleași companii care te-au urmărit pe web de ani de zile. Pixelii lor de publicitate știu deja ce site-uri vizitezi, ce produse iei în considerare și ce probleme încerci să rezolvi. Adăugarea conversațiilor tale AI la acel profil nu este o întrebare separată de confidențialitate. Este același profil, cu un flux mult mai bogat.

Am construit Wysor pentru că profilul nu ar trebui să devină mai bogat. Citește cum gestionăm urmărirea pe propriul nostru site →

Riscul nu este ce i-ai descărcat AI-ului. Riscul este ideea pe care ai lipit-o înainte să fii gata să arăți cuiva.


Scena 3: Nota vocală

Te plimbi și vorbești. Îi spui telefonului tău despre un simptom, un client, o ceartă urâtă.

Iată ce se întâmplă mai departe, în funcție de pe al cui buton ai apăsat:

ChatGPT păstrează audio-ul atâta timp cât există chat-ul. Nu este material de antrenament, dar e acolo.

Claude trimite audio-ul pe serverele Anthropic, îl șterge în aproximativ 24 de ore și rulează text-to-speech prin ElevenLabs, un terț, fără un acord public de zero retenție între ei.

Gemini procesează cuvântul de trezire local, dar trimite cererea reală la Google. Google a plătit deja $68M pentru a soluționa un proces despre cum a gestionat datele vocale.

Siri stochează transcrieri procesate pe server până la doi ani. Apple a soluționat propriul proces de voce pentru $95M după ce Siri s-a activat când nimeni nu a spus „Hey Siri."

Wysor Voice pe aplicația iOS transcrie pe dispozitiv. Audio-ul nu părăsește niciodată telefonul tău.


Scena 4: Procesul pe care nu l-ai văzut venind

Februarie 2026. Un caz numit United States v. Heppner a stabilit că conversațiile tale cu asistenții AI nu sunt protejate de privilegiul avocat-client și nu sunt nici produs de muncă.

Raționamentul instanței a fost simplu: politicile furnizorilor permit divulgarea către autorități și pot permite folosirea pentru antrenament. Nu există o așteptare rezonabilă de confidențialitate. Așa că orice de pe un plan AI pentru consumatori este potențial descoperibil în procedurile legale.

Citește asta din nou. Lucrul pe care i l-ai spus ChatGPT este lucrul pe care un avocat îl poate cita.


Ce înseamnă cu adevărat „zero retenție de date"

Zero retenție de date (ZDR) este un acord contractual cu un furnizor AI care schimbă ciclul de viață al conversației tale la nivel tehnic.

Pe un plan obișnuit pentru consumatori, fiecare mesaj pe care îl trimiți este înregistrat pe serverele furnizorului. Este păstrat zile, luni sau ani. Poate fi pus în coadă pentru revizuire umană. Poate alimenta următorul model. Ștergerea este un proces care se întâmplă mai târziu, dacă se întâmplă.

Sub zero retenție de date, nimic din toate acestea nu se întâmplă. Mesajul tău ajunge la furnizor. Modelul produce un răspuns. Răspunsul este returnat ție. În acel moment, cererea și răspunsul sunt eliminate din infrastructura furnizorului. Fără jurnale. Fără copii de rezervă. Fără date de antrenament reținute.

Clasificatorii automați de siguranță rulează încă în momentul cererii (fiecare furnizor major necesită asta, și noi la fel, pentru a preveni folosirea modelului pentru abuz grav), dar se execută pe cererea live și nu creează o înregistrare stocată a conversației tale după aceea.

Nu există nimic de citat mai târziu, pentru că nu a fost păstrat nimic. Nu există nimic pe care să se antreneze mai târziu, pentru că datele nu există la o secundă după ce a fost generat răspunsul.

Aceasta este protecția pentru care companiile mari plătesc și semnează acorduri de achiziții pentru a o obține. Toți ceilalți rămân pe planuri unde retenția este implicită.


Deci care este diferența cu Wysor?

Nu îți cerem să ai încredere într-un comutator. Semnăm contracte.

Zero retenție de date este implicită pe Wysor, nu upgrade-ul. Fiecare furnizor către care direcționăm (Claude, GPT-5, Gemini, Perplexity și fiecare model open-source pe care îl oferim) este învelit într-un acord dedicat care setează retenția la minimul tehnic. Pentru majoritatea furnizorilor, acel minim este zero. Conversația ta este procesată și a dispărut.

Nu ne antrenăm niciodată pe datele tale. Nici pe gratis. Nici pe plătit. Nici pe niciun plan. Este în contract, nu o setare pe care trebuie să-ți amintești să o comuți.

Multe dintre modelele noastre rulează pe servere din interiorul UE. Mesajul tău primește răspuns pe infrastructura europeană și datele tale nu părăsesc UE pentru a fi procesate. Poți vedea ce modele sunt găzduite în UE pe pagina noastră de modele.

Pe aplicația iOS, transcrierea vocală rulează pe dispozitivul tău.

Și nu ai nevoie de o echipă de achiziții pentru a accesa nimic din toate acestea. Te înregistrezi.


Pe scurt

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Retenție implicită30 zile (până la 5 ani dacă antrenamentul este pornit)Cât timp contul este activ18 luniZero pentru majoritatea furnizorilor
Antrenament pe datele taleOpt-in, implicit pornitPornit implicitPornit implicitNiciodată
Unde sunt procesate datele taleSUA (implicit consumator)SUA (implicit consumator)SUA (implicit consumator)UE pentru multe modele
VoceAudio pe servere, ~24hStocate cu chat-ulTrimise la GooglePe dispozitiv (aplicația iOS)
Cum o obții$20/lună$20/lună$20/lunăȘi planul gratuit funcționează

Ce înseamnă asta cu adevărat

AI-ul tău îți știe salariul, simptomele tale și lucrul pe care ți-e frică să-i spui partenerului tău. Știe și produsul tău nelansat, prețurile tale, strategia ta cu clienții și ideea pe care nimeni altcineva nu a auzit-o încă. Nimic din asta nu este o problemă de funcționalitate. Toate sunt o problemă de stocare.

Wysor protejează ambele. Conversațiile tale personale rămân ale tale. La fel și cele de afaceri. Ideea ta nouă nu este material pentru rularea de antrenament a altcuiva. Munca ta cu clienții nu este inteligență pentru o companie care vinde și instrumente concurente. Prețurile tale nu sunt o linie în coada unui evaluator.

Oferim fiecărui utilizator, de la un cont gratuit la un plan complet de afaceri, tipul de protecții de confidențialitate care obișnuiau să necesite un ciclu de achiziții.

Șterge ar trebui să însemne șterge. Vocea ar trebui să rămână pe telefonul tău. Următoarea ta idee ar trebui să rămână a ta.


Continuă să citești

Începe cu Wysor →


Toate afirmațiile provin din politicile oficiale de confidențialitate, termenii de serviciu, documentele instanțelor și documentația furnizorilor, începând cu februarie 2026.