Twoje AI wie więcej, niż myślisz: Porównanie prywatności Claude, ChatGPT i Gemini
Codziennie wklejasz do AI kontrakty, wynagrodzenia, pytania medyczne, dokumenty prawne i strategie biznesowe. Dyktuj mu notatki głosowe. Ufasz mu bardziej niż większości swoich współpracowników.
Ale co się dzieje ze wszystkim, co mu mówisz?
Przeczytaliśmy polityki prywatności, żebyś Ty nie musiał. Oto co znaleźliśmy — i dlaczego dokładnie z tego powodu zbudowaliśmy Wysor.
Plany konsumenckie i korporacyjne to różne produkty
Claude Pro. ChatGPT Plus. Gemini Advanced. Płacenie 20$/miesiąc daje Ci lepsze modele i wyższe limity użycia, ale polityki przetwarzania danych na planach konsumenckich są w dużej mierze takie same jak na darmowych.
Aby uzyskać umowne zabezpieczenia prywatności — DPA, zerową retencję danych, wyłączenia z treningu — większość dostawców wymaga umowy korporacyjnej. To oznacza dłuższy proces zamówień i wyższe ceny.
Wysor daje Ci te zabezpieczenia klasy korporacyjnej na każdym planie, łącznie z darmowym.
Jak długo Twoje rozmowy leżą na ich serwerach
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| Domyślna retencja | 30 dni (lub 5 lat, jeśli trening jest włączony) | Przechowywane, dopóki konto jest aktywne | 18 miesięcy | Maksymalnie 30 dni (OpenAI). Inni: zero. |
| Po usunięciu | 30 dni na usunięcie | 30 dni na usunięcie | Minimum 72 godziny | Zminimalizowane przez dedykowane DPA. |
Claude przechowuje Twoje dane domyślnie przez 30 dni. W październiku 2025 Anthropic ustawiło trening jako opt-in — co oznacza, że jeśli nie odpowiedziałeś na monit, Twoje rozmowy mogą być przechowywane do 5 lat.
ChatGPT przechowuje rozmowy, dopóki Twoje konto jest aktywne. Po usunięciu rozmowy OpenAI potrzebuje do 30 dni na pełne usunięcie z systemów.
Gemini przechowuje rozmowy do 18 miesięcy. Nawet z wyłączonym „Zachowaj aktywność" Google trzyma dane przez co najmniej 72 godziny.
Dedykowane DPA Wysor z każdym dostawcą minimalizują retencję do technicznego minimum — dla większości dostawców to zero. Twoje rozmowy żyją w Twojej przestrzeni roboczej, a nie na serwerach dostawców przez miesiące.
Domyślne ustawienia treningu różnią się w zależności od dostawcy
Domyślnie większość konsumenckich planów AI pozwala na wykorzystanie Twoich rozmów do ulepszania modeli:
- Claude: Opt-in od października 2025, ale Anthropic domyślnie ustawiło to na „włączone" dla użytkowników, którzy aktywnie nie odpowiedzieli
- ChatGPT: Domyślnie włączone. Można wyłączyć w Ustawienia > Kontrola danych
- Gemini: Domyślnie włączone. Wyłącz „Zachowaj aktywność", aby zrezygnować
Plany korporacyjne i API u wszystkich trzech dostawców zazwyczaj domyślnie wyłączają trening. Ale użytkownicy indywidualni i małe zespoły na planach konsumenckich muszą to konfigurować sami.
Wysor nigdy nie trenuje na Twoich danych. Nie na darmowym. Nie na płatnym. Nie na żadnym planie. To gwarancja umowna, nie przełącznik.
Praktyki ludzkiego przeglądu u dostawców
Wszyscy trzej główni dostawcy mają jakąś formę ludzkiego przeglądu w swoim procesie przetwarzania danych:
Google jest w tym transparentny — wyraźnie radzi użytkownikom Gemini, aby nie wprowadzali poufnych informacji. Rozmowy poddane ludzkie przeglądowi mogą być przechowywane do 3 lat, odłączone od Twojego konta.
OpenAI stwierdza w swojej Polityce prywatności UE, że może przeglądać treści w celach bezpieczeństwa i zgodności. Rezygnacja z treningu nie oznacza rezygnacji z przeglądu. Na poziomach API i korporacyjnych te praktyki są inne — OpenAI oferuje zerową retencję danych dla kwalifikujących się klientów API.
Anthropic kieruje oznaczone rozmowy Claude do swojego zespołu Trust & Safety. Oznaczone dane wejściowe i wyjściowe mogą być przechowywane do 2 lat, a oceny bezpieczeństwa do 7 lat.
Co „usuń" oznacza u każdego dostawcy
Terminy usuwania różnią się, a w niektórych przypadkach dane mogą utrzymywać się dłużej niż oczekiwano:
- Gemini: Jeśli rozmowa została wybrana do ludzkiego przeglądu przed usunięciem, ta kopia może utrzymywać się osobno do 3 lat.
- Claude: Oznaczone rozmowy są przechowywane do 2 lat niezależnie od usunięcia.
- ChatGPT: Standardowe usuwanie zajmuje do 30 dni. W pewnych postępowaniach prawnych (jak NYT v. OpenAI w 2025) sądy nakazały dostawcom zachowanie danych konwersacyjnych — prawna rzeczywistość, która może dotyczyć każdego dostawcy, nie tylko OpenAI.
W Wysor usunięcie oznacza usunięcie. Gdy dostawcy nie przechowują Twoich danych poza minimalnym oknem przetwarzania, nie ma czego zachowywać.
Rozmowy z AI a tajemnica adwokacka
W lutym 2026 roku sprawa United States v. Heppner ustaliła, że rozmowy z asystentami AI nie są chronione tajemnicą adwokacką i nie stanowią materiału roboczego.
Uzasadnienie: polityki dostawców pozwalają na potencjalne ujawnienie organom rządowym i mogą pozwalać na wykorzystanie do ulepszania modeli. Sąd stwierdził brak uzasadnionego oczekiwania poufności.
Ten precedens dotyczy wszystkich dostawców — każda rozmowa z AI na planie konsumenckim jest potencjalnie możliwa do ujawnienia w postępowaniach prawnych. Minimalizacja retencji po stronie dostawcy zmniejsza tę ekspozycję.
Obsługa danych głosowych
Funkcje głosowe AI cieszą się rosnącą popularnością. Oto jak każdy dostawca obsługuje dane audio.
Claude Voice
- Audio wysyłane na serwery Anthropic, następnie usuwane w ciągu ~24 godzin
- Synteza mowy korzysta z ElevenLabs (zewnętrzny dostawca)
- Dostawca rozpoznawania mowy nie jest publicznie ujawniony
- Brak publicznego porozumienia o zerowej retencji danych między Anthropic a ElevenLabs
ChatGPT Voice
- Klipy audio i wideo przechowywane razem z rozmową tak długo, jak czat istnieje
- Audio nie jest używane do treningu, ale transkrypcje tekstowe mogą być, jeśli trening jest włączony
Gemini Voice
- „Uczenie efemeryczne" Google przetwarza audio słowa aktywacyjnego w pamięci RAM, ale faktyczne zapytania głosowe są wysyłane na serwery Google
- Google było stroną sporów sądowych dotyczących obsługi danych głosowych, w tym ugodą na 68 mln $
Apple Siri
- Zapytania przetwarzane na serwerze: Apple przechowuje transkrypcje do 2 lat
- Dyktowanie na urządzeniu pozostaje lokalne, ale Apple zbiera metadane (kategoria zapytania, informacje o urządzeniu, statystyki wydajności)
- Opcja „Ulepszaj Siri" pozwala Apple przechowywać nagrania głosowe do 2 lat
- Apple zawarło ugodę na 95 mln $ w sprawie nieumyślnych aktywacji Siri
Wysor Voice
- Wszystko odbywa się na Twoim urządzeniu. Audio nigdy nie opuszcza Twojego telefonu
- Bez serwerów. Bez stron trzecich. Bez przetwarzania w chmurze. Działa offline
- Nie możemy ujawnić Twoich danych głosowych, ponieważ nigdy ich nie otrzymujemy
Plany korporacyjne: silna ochrona, wyższa cena
Wszyscy trzej dostawcy oferują poziomy korporacyjne ze znacznie lepszymi zabezpieczeniami prywatności — DPA, wyłączenia z treningu, a w niektórych przypadkach zerowa retencja danych. To solidne opcje dla organizacji z odpowiednim budżetem i zasobami do zamówień.
| Claude Enterprise | ChatGPT Enterprise | Gemini Workspace | Wysor | |
|---|---|---|---|---|
| Zerowa retencja danych | API, po zatwierdzeniu | Dostępne dla kwalifikujących się klientów | Konfigurowalne | Domyślnie na każdym planie |
| Ludzki przegląd | Ograniczony (oznaczone dane mogą nadal być przeglądane) | Brak z ZDR | Brak | Domyślnie brak. |
| Proces zamówienia | Sprzedaż korporacyjna | Sprzedaż korporacyjna | Sprzedaż korporacyjna | Rejestracja samoobsługowa |
W przypadku OpenAI, z którym wciąż finalizujemy dedykowaną umowę, wyraźnie wyłączamy przechowywanie danych na każdym pojedynczym zapytaniu, które wysyłamy — technicznie wymuszone, nie tylko żądane. Logi nadużyć mogą być przechowywane do 30 dni.
Plany korporacyjne to właściwy wybór dla dużych organizacji. Ale dla osób indywidualnych, małych zespołów i firm, które chcą tych samych zabezpieczeń bez cyklu zamówieniowego, Wysor udostępnia je od pierwszego dnia.
Co to oznacza dla Ciebie
Twoi pracownicy używają AI codziennie — do kontraktów, strategii, komunikacji z klientami. Pytanie brzmi, czy te rozmowy są chronione gwarancjami umownymi, czy tylko domyślnymi ustawieniami.
Wysor daje każdemu użytkownikowi — od darmowego po premium — dostęp do GPT-5, Claude, Gemini i Perplexity w jednej przestrzeni roboczej, wspieranej dedykowanymi DPA, które minimalizują retencję dostawcy, zabraniają treningu i minimalizują dostęp dostawcy do danych. Plus transkrypcja głosowa na urządzeniu, zarządzanie emailem i pełna ścieżka audytu.
Prywatność klasy korporacyjnej nie powinna wymagać umowy korporacyjnej.
Czytaj dalej
- Pełna prywatność: Twoje dane nigdy nie opuszczają Twojej kontroli — Jak Wysor zapewnia AI na najwyższym poziomie z umownymi gwarancjami prywatności
- Twoje notatki głosowe są wysyłane do Apple. Nasze nie. — Transkrypcja na urządzeniu, która nigdy nie opuszcza Twojego telefonu
- Shadow AI: Gdy Twoi pracownicy używają ChatGPT za Twoimi plecami — Dlaczego zakaz AI nie działa i co robić zamiast tego
- Stworzyliśmy przestrzeń roboczą AI, która powinna była powstać 3 lata temu — Czat, agenci, email, kalendarz, badania, głos i obrazy w jednym miejscu
Wszystkie twierdzenia oparte na oficjalnych politykach prywatności, warunkach usługi, dokumentach sądowych i dokumentacji dostawców na luty 2026.



