Twoja AI wie o Tobie więcej, niż myślisz: porównanie prywatności Claude, ChatGPT i Gemini
Zanim czytasz dalej, spróbuj tego. Otwórz ChatGPT i wpisz: "Jaka jest najbardziej osobista rzecz, o którą kiedykolwiek Cię zapytałem?"
Odpowiedź będzie bardziej konkretna, niż się spodziewałeś. Bardziej intymna. Bardziej ujawniająca. Możesz nawet nie pamiętać, że to wpisałeś. Model pamięta.
Ponieważ AI ma to wszystko. Umowę z Twoją pensją. Notatkę głosową o wysypce. Trudną wiadomość, którą redagowałeś do szefa o jedenastej w nocy. Pytanie, które było zbyt krępujące, aby wpisać je w Google.
Oto niewygodne pytanie, którego nikt nie umieszcza na stronie z cennikiem. Dokąd to wszystko tak naprawdę trafia?
Przeczytaliśmy regulaminy, żebyś Ty nie musiał. To, co znaleźliśmy, jest powodem, dla którego istnieje Wysor.
Scena 1: Umowa, którą wkleiłeś
Wrzucasz 14-stronicową umowę do ChatGPT. Zaznaczasz pensję, zakaz konkurencji, dziwną klauzulę o własności intelektualnej.
W planie konsumenckim ta rozmowa przechowywana jest na serwerach OpenAI tak długo, jak Twoje konto jest aktywne. Klikasz "usuń" i trwa do 30 dni, zanim dane naprawdę opuszczą ich systemy. W niektórych przypadkach nie opuszczają ich wcale: w 2025 roku postanowienie sądu w sprawie NYT v. OpenAI zobowiązało OpenAI do zachowania danych z rozmów, w tym rozmów, które użytkownicy usunęli.
Ta sama scena w Claude. Domyślnie przechowywane przez 30 dni. Jeśli przełącznik trenowania Anthropic jest włączony (a od października 2025 roku jest domyślnie opt-in, co oznacza, że każdy, kto kliknął przez komunikat bez przeczytania, powiedział "tak"), ta rozmowa może być przechowywana nawet przez pięć lat.
W Gemini do 18 miesięcy. Wyłącz "Zachowaj aktywność", a Google i tak trzyma dane przez co najmniej 72 godziny.
Co naprawdę oznacza "przechowywane"
Przechowywane nie oznacza zamknięte w sejfie. Przechowywane oznacza, że dostawca może to otworzyć, przeszukać, zaindeksować, przeanalizować i przekazać systemom oraz osobom, którym zechce dać dostęp. Ich zespół przeglądowy może to otworzyć. Ich potoki trenowania mogą to wchłonąć. Ich inżynierowie mogą zadawać zapytania do tych danych podczas debugowania.
To, czy plik jest zaszyfrowany na dysku, to pytanie o napastników z zewnątrz. To nie jest pytanie, które ma znaczenie dla Twojej umowy. Pytanie, które ma znaczenie, brzmi: kto wewnątrz firmy i które z ich wewnętrznych systemów mogą tego dotknąć. W planie konsumenckim odpowiedź brzmi: całkiem sporo z nich.
Postanowienie sądu nie dotyczyło tylko OpenAI
Krótkie przypomnienie, bo większość ludzi o tym nie słyszała. W 2023 roku New York Times pozwał OpenAI za wykorzystanie artykułów Times do trenowania modeli. W połowie 2025 roku, w trakcie tej toczącej się sprawy, sąd federalny nakazał OpenAI zachowanie zasadniczo wszystkich rozmów użytkowników ChatGPT jako potencjalnego materiału dowodowego, w tym rozmów, które użytkownicy już usunęli. Zwykli użytkownicy nie byli stronami pozwu. Ich dane i tak zostały zachowane.
To postanowienie trafiło najpierw do OpenAI, ale zasada odnosi się do każdego dostawcy, który przechowuje Twoje rozmowy. Anthropic, Google i każdy inny dostawca, który zachowuje dane użytkowników, podlega temu samemu rodzajowi procesu prawnego. Nakaz zachowania, wezwanie do sądu, żądanie ujawnienia. Każdy sąd w każdej jurysdykcji, w której firma działa, może ją zmusić do wyprodukowania lub zachowania zapisów, które już posiada.
Zasada jest prosta. Jeśli dane istnieją, można ich zażądać. Jedyną prawdziwą obroną jest nieprzechowywanie danych od samego początku.
Twoja umowa to nie zapytanie wyszukiwarki. To dokument z Twoim nazwiskiem, Twoją pensją i Twoim pracodawcą. I w tej chwili siedzi na cudzej maszynie.
Przy zerowym przechowywaniu danych ta sama umowa jest przetwarzana, otrzymuje odpowiedź i znika. Żadna kopia nie jest zapisywana na dysku. Żaden pracownik nie może jej otworzyć później, bo "później" nie istnieje. Żaden sąd nie może wymusić jej ujawnienia, bo nie ma czego ujawniać. Twoje dane są bezpieczne, ponieważ nigdy nie zostały zapisane.
Scena 2: Twój pomysł jest produktem
Oficjalna strona pomocy Gemini od Google wyraża to wprost: "Prosimy nie wprowadzać informacji poufnych, których nie chciałbyś pokazać recenzentowi ani wykorzystać przez Google do ulepszania naszych usług, w tym technologii uczenia maszynowego."
To nie jest ostrzeżenie o łapaniu złych aktorów. To przyznanie, że rozmowy, które prowadzisz z Gemini, są materiałem do ludzkiej weryfikacji i doskonalenia produktu. Te zweryfikowane rozmowy mogą być przechowywane przez trzy lata.
Ma to znaczenie ze względu na to, do czego ludzie faktycznie używają AI. Nowy pomysł. Oferta dla klienta. Linia produktowa, której nikt jeszcze nie ogłosił. Tekst, którego świat jeszcze nie widział. Wklejasz to do modelu. Burzysz mózgi. Dopracowujesz. Opisujesz rzecz, której jeszcze nie wypuściłeś.
Na końcu tej rozmowy siedzi firma, której biznesem jest rozumienie, co ludzie budują, o co proszą i za co są skłonni płacić. Ta sama firma sprzedaje reklamy, sprzedaje konkurencyjne narzędzia i sprzedaje własne produkty AI. Twój niewypuszczony pomysł jest dla nich, w najbardziej dosłownym sensie, cenną informacją wywiadowczą.
Aplikacje agregatorów firm trzecich potęgują ekspozycję. Mała firma owija kilka modeli w jeden interfejs, wstawia własną analitykę i własny personel między Ciebie a dostawcę, i dziedziczy dostęp do wszystkiego, co przesyłasz. Powierzchnia zaufania się podwaja. Nadzór nie.
I nic z tego nie istnieje w izolacji. Firmy stojące za największymi produktami AI to te same firmy, które od lat śledzą Cię w sieci. Ich piksele reklamowe już wiedzą, jakie strony odwiedzasz, jakie produkty rozważasz i jakie problemy próbujesz rozwiązać. Dodanie Twoich rozmów z AI do tego profilu nie jest osobnym pytaniem o prywatność. To ten sam profil, z o wiele bogatszym strumieniem danych.
Stworzyliśmy Wysor, bo ten profil nie powinien stawać się bogatszy. Przeczytaj, jak traktujemy śledzenie na naszej własnej stronie →
Ryzyko nie tkwi w tym, z czego wyżaliłeś się AI. Ryzyko to pomysł, który wkleiłeś, zanim byłeś gotowy komukolwiek go pokazać.
Scena 3: Notatka głosowa
Idziesz i mówisz. Opowiadasz telefonowi o objawie, o kliencie, o nieprzyjemnej kłótni.
Oto, co dzieje się dalej, w zależności od tego, czyj przycisk nacisnąłeś:
ChatGPT zachowuje nagranie tak długo, jak istnieje czat. To nie materiał treningowy, ale tam jest.
Claude wysyła nagranie na serwery Anthropic, kasuje je w ciągu około 24 godzin i przepuszcza zamianę tekstu na mowę przez ElevenLabs, stronę trzecią, bez publicznej umowy o zerowym przechowywaniu między nimi.
Gemini przetwarza słowo aktywujące lokalnie, ale wysyła właściwe żądanie do Google. Google zapłacił już 68 milionów dolarów w ugodzie pozwu dotyczącego sposobu obsługi danych głosowych.
Siri przechowuje transkrypcje przetwarzane na serwerze nawet przez dwa lata. Apple zawarł ugodę w swoim własnym procesie głosowym na kwotę 95 milionów dolarów, po tym jak Siri aktywowała się, gdy nikt nie powiedział "Hey Siri".
Wysor Voice w aplikacji iOS transkrybuje na urządzeniu. Nagranie nigdy nie opuszcza Twojego telefonu.
Scena 4: Pozew, którego się nie spodziewałeś
Luty 2026. Sprawa o nazwie United States v. Heppner ustaliła, że Twoje rozmowy z asystentami AI nie są objęte tajemnicą adwokacką ani nie stanowią materiału przygotowawczego prawnika.
Uzasadnienie sądu było proste: regulaminy dostawców zezwalają na ujawnianie władzom i mogą dopuszczać użycie do trenowania. Nie ma uzasadnionego oczekiwania poufności. Więc wszystko w konsumenckim planie AI jest potencjalnie dostępne w postępowaniu prawnym.
Przeczytaj to jeszcze raz. To, co powiedziałeś ChatGPT, jest tym, czego prawnik może zażądać wezwaniem sądowym.
Co naprawdę oznacza "zerowe przechowywanie danych"
Zerowe przechowywanie danych (ZDR, zero data retention) to umowne porozumienie z dostawcą AI, które zmienia cykl życia Twojej rozmowy na poziomie technicznym.
W zwykłym planie konsumenckim każda wiadomość, którą wysyłasz, jest logowana na serwerach dostawcy. Jest przechowywana przez dni, miesiące lub lata. Może trafić do kolejki weryfikacji przez człowieka. Może zasilić następny model. Usunięcie to proces, który odbywa się później, jeśli w ogóle.
Przy zerowym przechowywaniu danych nic z tego się nie dzieje. Twoja wiadomość dociera do dostawcy. Model generuje odpowiedź. Odpowiedź trafia z powrotem do Ciebie. W tym momencie żądanie i odpowiedź są odrzucane z infrastruktury dostawcy. Brak logów. Brak kopii zapasowych. Brak zachowanych danych treningowych.
Automatyczne klasyfikatory bezpieczeństwa wciąż działają w momencie żądania (każdy większy dostawca tego wymaga, my też, aby zapobiec wykorzystaniu modelu do poważnych nadużyć), ale wykonują się na żywym żądaniu i nie tworzą później zapisanego rekordu Twojej rozmowy.
Nie ma czego później żądać wezwaniem sądowym, bo nic nie zostało zachowane. Nie ma na czym później trenować, bo dane nie istnieją sekundę po wygenerowaniu odpowiedzi.
To ochrona, za którą płacą duże przedsiębiorstwa i podpisują umowy zakupowe, aby ją uzyskać. Wszyscy inni zostają w planach, w których domyślnie obowiązuje przechowywanie.
Więc jaka jest różnica z Wysor?
Nie prosimy Cię o zaufanie przełącznikowi. Podpisujemy umowy.
Zerowe przechowywanie danych jest w Wysor domyślne, a nie premium. Każdy dostawca, do którego kierujemy zapytania (Claude, GPT-5, Gemini, Perplexity i każdy model open-source, który oferujemy), jest objęty dedykowaną umową ustawiającą przechowywanie na technicznym minimum. Dla większości dostawców tym minimum jest zero. Twoja rozmowa jest przetwarzana i znika.
Nigdy nie trenujemy na Twoich danych. Nie w wersji darmowej. Nie w płatnej. Nie w żadnym planie. Jest to w umowie, a nie w ustawieniu, które musisz pamiętać, aby przełączyć.
Wiele naszych modeli działa na serwerach w UE. Twoja wiadomość otrzymuje odpowiedź na europejskiej infrastrukturze, a Twoje dane nie opuszczają UE, aby zostać przetworzone. Możesz zobaczyć, które modele są hostowane w UE, na naszej stronie z modelami.
W aplikacji iOS transkrypcja głosowa działa na Twoim urządzeniu.
I nie potrzebujesz zespołu zakupowego, aby uzyskać do tego dostęp. Po prostu się rejestrujesz.
W skrócie
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Domyślne przechowywanie | 30 dni (do 5 lat, jeśli trenowanie jest włączone) | Dopóki konto jest aktywne | 18 miesięcy | Zero u większości dostawców |
| Trenowanie na Twoich danych | Opt-in, domyślnie włączone | Domyślnie włączone | Domyślnie włączone | Nigdy |
| Gdzie Twoje dane są przetwarzane | USA (domyślnie konsumencko) | USA (domyślnie konsumencko) | USA (domyślnie konsumencko) | UE dla wielu modeli |
| Głos | Nagranie na serwery, ok. 24 h | Przechowywane z czatem | Wysyłane do Google | Na urządzeniu (aplikacja iOS) |
| Jak to dostajesz | 20 dolarów miesięcznie | 20 dolarów miesięcznie | 20 dolarów miesięcznie | Darmowy plan też działa |
Co to naprawdę oznacza
Twoja AI zna Twoją pensję, Twoje objawy i rzecz, której boisz się powiedzieć partnerowi. Zna też Twój niewypuszczony produkt, Twoje ceny, strategię wobec klientów i pomysł, którego nikt inny jeszcze nie słyszał. Nic z tego nie jest problemem funkcji. Wszystko to jest problemem przechowywania.
Wysor chroni jedno i drugie. Twoje osobiste rozmowy zostają Twoje. Tak samo Twoje biznesowe. Twój nowy pomysł nie jest materiałem do czyjegoś treningu. Twoja praca z klientem nie jest informacją wywiadowczą dla firmy, która sprzedaje też konkurencyjne narzędzia. Twoje ceny nie są linijką w kolejce recenzenta.
Każdemu użytkownikowi, od darmowego konta po pełny plan biznesowy, dajemy ten rodzaj ochrony prywatności, który wcześniej wymagał cyklu zakupowego.
Usunięcie powinno znaczyć usunięcie. Głos powinien zostać na Twoim telefonie. Twój następny pomysł powinien zostać Twój.
Czytaj dalej
- Pełna prywatność: Twoje dane nigdy nie opuszczają Twojej kontroli
- Twoje notatki głosowe są wysyłane do Apple. Nasze nie.
- Shadow AI: gdy Twoi pracownicy używają ChatGPT za Twoimi plecami
- Zbudowaliśmy przestrzeń roboczą AI, która powinna była istnieć 3 lata temu
Wszystkie twierdzenia pochodzą z oficjalnych polityk prywatności, regulaminów, dokumentów sądowych i dokumentacji dostawców, stan na luty 2026.



