Czy mogę po prostu używać darmowej wersji ChatGPT lub Claude?
Technology

Czy mogę po prostu używać darmowej wersji ChatGPT lub Claude?

To najbardziej rozsądne pytanie, jakie ktokolwiek zadaje, zanim zapłaci za narzędzie AI.

Darmowe wersje są dobre. Odpowiadają niemal na wszystko. Więc zanim podpiszesz się pod czymkolwiek płatnym, uczciwe pytanie brzmi: czy naprawdę potrzebuję czegoś więcej?

Chcieliśmy dać Ci prawdziwą odpowiedź, a nie straszącą, więc usiedliśmy i przeczytaliśmy faktyczne polityki prywatności OpenAI (ChatGPT) oraz Anthropic (Claude). Obie. Od deski do deski.

Oto uczciwa wersja.


Co tak naprawdę zachowują darmowe wersje

Trzymajmy się tego, co mówią polityki, prostym językiem.

Kiedy używasz darmowej wersji ChatGPT, OpenAI zachowuje:

  • Wszystko, co wpisujesz, plus wszelkie pliki, obrazy, audio czy wideo, które przesyłasz.
  • Twoje imię, e-mail, dane konta i wszelkie informacje z profilu.
  • Twój adres IP, przeglądarkę, urządzenie, strefę czasową i sposób, w jaki korzystasz z produktu.
  • Twoją ogólną lokalizację z IP. A także dokładną lokalizację, jeśli ją włączysz.
  • Twoje kontakty, jeśli kiedykolwiek je podłączysz, w tym informację o tym, którzy z Twoich kontaktów też korzystają z usługi.

Kiedy używasz darmowej wersji Claude, Anthropic zachowuje:

  • Każdy prompt i każdą odpowiedź. Polityka mówi wprost: jeśli umieścisz dane osobowe w promptcie, zostają one zebrane i mogą również pojawić się w odpowiedzi.
  • Twoje imię, e-mail, numer telefonu, dane płatnicze, jeśli kiedykolwiek przejdziesz na plan płatny.
  • Twój adres IP, urządzenie, przeglądarkę, lokalizację wywnioskowaną z IP oraz sposób, w jaki korzystasz z produktu.
  • Całą rozmowę, jeśli kiedykolwiek klikniesz kciuk w górę lub w dół. To zostaje zapisane jako informacja zwrotna.

Więc nawet z ostrożnym czarnym markerem na kilku słowach, większość metadanych wokół Twojej wiadomości i tak zostaje zebrana, na obu produktach, w darmowej wersji.


"Czy moja rozmowa zostanie użyta do trenowania AI?"

Zarówno w ChatGPT, jak i Claude, domyślne ustawienie darmowej wersji to: tak. Istnieje opcja rezygnacji. To ustawienie, które trzeba samemu znaleźć i wyłączyć.

To znaczy, że większość ludzi, którzy nigdy nie otworzyli ustawień prywatności, trenuje następny model swoją pracą. Swoimi szkicami. Pytaniem zadanym późno w nocy.

Ta część to nie opinia Wysor. To są polityki.

OpenAI mówi, że używa Treści "do ulepszania i rozwijania naszych Usług oraz prowadzenia badań, na przykład do rozwijania nowych funkcji" i wyraźnie wspomina o trenowaniu modeli, które napędzają ChatGPT, z możliwością rezygnacji.

Anthropic mówi, że "może używać Twoich Wejść i Wyjść do trenowania naszych modeli i ulepszania naszych Usług, chyba że zrezygnujesz w ustawieniach swojego konta". Zaznacza też dwa przypadki, w których rezygnacja nie obowiązuje: cokolwiek zostało oznaczone do przeglądu bezpieczeństwa oraz cokolwiek przesłałeś jako informację zwrotną.

Więc cokolwiek wkleisz, na darmowym koncie z ustawieniami domyślnymi, jest wolne do trenowania.


"A co z trybem Temporary Chats?"

ChatGPT ma tryb Temporary Chats. Wygląda jak oczywista odpowiedź: nic nie jest zapisywane w historii, nic nie jest używane do trenowania. Wiele osób, które dbają o prywatność, używa go właśnie do takich rzeczy.

Jest lepszy niż zwykły czat. Nie jest to ta gumka do mazania, za jaką uważa go większość ludzi.

Polityka samego OpenAI mówi, że Temporary Chats "zostaną automatycznie usunięte w ciągu 30 dni (chyba że musimy je zachować ze względów bezpieczeństwa lub prawnych)". Czat najpierw siedzi na ich serwerach przez nawet 30 dni.

Tak więc w 2025 roku, kiedy amerykański sąd federalny nakazał OpenAI zachowanie zasadniczo wszystkich rozmów w ChatGPT jako dowodów w niepowiązanym postępowaniu, ten nakaz objął również czaty, które użytkownicy uważali za ulotne. Zwykli użytkownicy nie byli stronami w sprawie. Ich dane i tak zostały zatrzymane.

Tryb Temporary to przydatna funkcja. To nie to samo, co wiadomość, która nigdy nie istniała.


"Czy przejście na Plus albo Pro coś z tego naprawia?"

W większości nie. Polityki prywatności dla wersji darmowej, ChatGPT Plus i ChatGPT Pro to ta sama polityka konsumencka. To samo dotyczy Claude.ai darmowego i Claude Pro. Płacenie daje Ci większy dostęp do modeli, więcej użycia, więcej funkcji. Nie przenosi Cię do innego zbioru zasad.

Zbiór zasad zmienia się tylko wtedy, gdy firma kupuje plan korporacyjny, podpisuje umowę i przechodzi przez procurement. Wtedy obowiązuje inny zestaw warunków. To ta część, której większość zwykłych użytkowników nie widzi, i to ta część ma znaczenie.


"A co, jeśli po prostu zaczernię wrażliwe fragmenty?"

Częsty trik. Zamażesz pensję, zamienisz nazwę firmy, a potem wkleisz. Cztery powody, dla których działa to gorzej, niż byś chciał.

Redakcja musi być za każdym razem perfekcyjna. Pominiesz jedną linię, zostawisz nazwisko w stopce, i ten fragment już siedzi na serwerze, którego nie kontrolujesz. Brak cofania. I nie siedzi tam sam, siedzi przypisany do Twojego konta, połączony z każdą inną wiadomością, jaką kiedykolwiek wysłałeś.

Pytanie zdradza redakcję. "Czy ten zakaz konkurencji jest egzekwowalny w Kalifornii dla starszego inżyniera zarabiającego powyżej standardowego progu?" Nie wpisałeś swojej pensji, ale właśnie powiedziałeś modelowi swoją rolę, swój stan i to, że zarabiasz powyżej konkretnej kwoty. Twoje imię, IP, adres, urządzenie i reszta historii Twoich wiadomości są już przypisane do tego profilu. Redakcja jest kosmetyczna, obrazek już tam jest.

Zdjęcia niosą własne wyznanie. Kiedy przesyłasz zdjęcie, plik zwykle niesie ze sobą metadane. Dane EXIF: współrzędne GPS miejsca, w którym zrobiono zdjęcie, dokładny znacznik czasu, marka i numer seryjny aparatu lub telefonu. To te same metadane, których organy ścigania i zespoły kryminalistyczne używają, aby umieścić osobę na miejscu zdarzenia. Większość ludzi nigdy ich nie usuwa przed przesłaniem. Widoczna treść obrazu to to, co zaczerniłeś. Niewidoczna treść jest w pełni nienaruszona.

Zapisane nie znaczy zapieczętowane. Rozmowy siedzą w systemach, w których recenzenci bezpieczeństwa, potoki treningowe i inżynierowie mogą je otworzyć. Strona pomocy Gemini od Google mówi użytkownikom wprost: "prosimy nie wpisywać poufnych informacji, których nie chciałbyś, aby zobaczył recenzent."

Redagowanie jest w porządku przy rzeczach o niskiej stawce. Nie jest to ochrona, za jaką większość ludzi ją uważa, gdy to, co wklejasz, naprawdę ma znaczenie.


Gdzie znajduje się Wysor

Nie chcieliśmy redagować i mieć nadziei. Chcieliśmy narzędzia, którego można po prostu używać.

Więc zbudowaliśmy Wysor na tych samych modelach, których użyłbyś za darmo gdzie indziej. Claude. GPT-5. Gemini. Perplexity. Open-source. Różnica leży w umowie pod spodem.

  • Twoje rozmowy nie są używane do trenowania żadnego modelu. Nigdy. Ani na darmowym, ani na płatnym. Jest to w naszej umowie z każdym dostawcą, a nie ustawienie w Twoim koncie.
  • Domyślnie używamy Zero Data Retention (ZDR) z większością dostawców, do których kierujemy zapytania. Dostawca przetwarza Twoją wiadomość, zwraca odpowiedź i usuwa zapytanie oraz odpowiedź ze swojej infrastruktury. Bez 30-dniowego okna. Bez historii czatu siedzącej na czyimś serwerze.
  • Wbudowane wyszukiwanie w bazach prawnych i medycznych. Praca, którą wykonujesz w tych dziedzinach, klauzula kontraktowa, interakcja leków, wyszukiwanie sprawy, to dokładnie ten rodzaj pracy, którego nie chcesz mieć przechowywanego na czyimś serwerze. W Wysor nie jest.
  • Wiele naszych modeli działa na serwerach hostowanych w UE. Twoja wiadomość otrzymuje odpowiedź w Europie i Twoje dane tam pozostają.
  • W aplikacji iOS transkrypcja głosowa odbywa się na Twoim telefonie. Dźwięk nigdy go nie opuszcza.

Nie musisz redagować umowy, zanim wkleisz ją do Wysor, ponieważ umowa nie jest przechowywana. Nie potrzebujesz też działu zakupów, aby cokolwiek z tego dostać. Rejestrujesz się i to jest ustawienie domyślne.


Na pierwszy rzut oka

ChatGPT (darmowy)Claude (darmowy)Wysor
Twoje rozmowy są przechowywaneTak, dopóki ich nie usunieszTak, dopóki ich nie usunieszZero retencji danych u większości dostawców, domyślnie
Używane do trenowania modeluWłączone domyślnie, możliwa rezygnacjaWłączone domyślnie, możliwa rezygnacjaNigdy, na mocy umowy
UsunięcieDo 30 dni, dłużej, jeśli wymaga tego prawoDo 30 dni z back-enduDostawca usuwa natychmiast w ramach ZDR dla większości modeli
Gdzie przetwarzane są Twoje daneUSA i inne krajeUSA, z umowami o transferze do UEHostowane w UE dla wielu modeli
Notatki głosowePrzechowywane razem z czatemWysyłane na serweryNa urządzeniu w iOS
Co się zmienia, gdy płaciszFunkcje. Postawa wobec prywatności jest taka samaFunkcje. Postawa wobec prywatności jest taka samaTa sama prywatność na darmowym i płatnym

Więc, czy możesz po prostu używać darmowej wersji?

Do codziennych pytań, tak. Nie ma nic złego w używaniu darmowego narzędzia do zadania pytania w sam raz dla darmowego narzędzia.

Powodem, dla którego zbudowaliśmy Wysor, jest to, że prawie nikt nie używa AI tylko do pytań w sam raz dla darmowego narzędzia. Po kilku tygodniach próbowania, idzie tam umowa. Idzie pytanie medyczne. Idzie strategia cenowa. Idzie ta rzecz, której jeszcze nikomu nie powiedziałeś.

Czarny marker przy wejściu to niezły instynkt. Po prostu nie jest to ochrona, za jaką większość ludzi go uważa. Ochrona leży w tym, co firmie wolno zrobić z tym, co wysłałeś, a to ustala polityka, a nie redakcja.

Jeśli wolisz nie myśleć o tym za każdym razem, gdy otwierasz narzędzie AI, to właśnie tę lukę zbudowaliśmy Wysor, aby wypełnić.

Wypróbuj Wysor za darmo →


Czytaj dalej


Na podstawie polityki prywatności konsumenckiej OpenAI oraz polityki prywatności konsumenckiej Anthropic (obowiązującej od 12 stycznia 2026), przeczytanych w całości według stanu na kwiecień 2026.