Votre IA en sait plus que vous ne le pensez : comparatif vie privée de Claude, ChatGPT et Gemini

Votre IA en sait plus que vous ne le pensez : comparatif vie privée de Claude, ChatGPT et Gemini

Technology

Votre IA en sait plus que vous ne le pensez : comparatif vie privée de Claude, ChatGPT et Gemini

Chaque jour, vous collez des contrats, des salaires, des questions médicales, des documents juridiques et des stratégies d'entreprise dans l'IA. Vous lui dictez des notes vocales. Vous lui faites plus confiance qu'à la plupart de vos collègues.

Mais que devient tout ce que vous lui confiez ?

Nous avons lu les politiques de confidentialité pour que vous n'ayez pas à le faire. Voici ce que nous avons découvert — et pourquoi c'est précisément la raison pour laquelle nous avons créé Wysor.


Votre abonnement à 20 $/mois ne vous garantit pas la confidentialité

Claude Pro. ChatGPT Plus. Gemini Advanced. Vous pourriez penser que payer 20 $/mois vous offre une meilleure protection des données que la version gratuite.

Ce n'est pas le cas. Gratuit ou payant, chaque offre grand public applique les mêmes règles : vos conversations sont utilisées pour l'entraînement, elles peuvent être relues par des humains, et elles sont conservées bien plus longtemps que vous ne l'imaginez.

La seule façon d'obtenir une vraie confidentialité auprès de ces fournisseurs est de négocier un contrat entreprise — des conditions différentes, une tarification différente, et une équipe commerciale entre vous et vos données.

Nous avons créé Wysor pour que vous n'ayez pas à passer cet appel.


Combien de temps vos conversations restent sur leurs serveurs

Claude ProChatGPT Plus/ProGemini AdvancedWysor
Conservation par défaut30 jours (ou 5 ans si l'entraînement est activé)Indéfinie18 mois30 jours maximum (OpenAI). Autres : zéro.
Après une « suppression »30 jours pour la suppression effective30 jours pour la suppression effective72 heures minimumMinimisée via des DPA dédiés.

Claude conserve vos données pendant 30 jours par défaut. Mais en octobre 2025, Anthropic a discrètement activé l'entraînement par défaut — ce qui signifie que si vous avez manqué la notification, vos conversations peuvent désormais être stockées jusqu'à 5 ans.

ChatGPT conserve tout indéfiniment. Vos conversations restent dans les systèmes d'OpenAI jusqu'à ce que vous les supprimiez manuellement, puis il faut encore 30 jours pour qu'elles soient réellement effacées.

Gemini conserve pendant 18 mois. Même si vous désactivez « Conserver l'activité », Google garde vos données pendant 72 heures. Il n'existe aucune conservation zéro sur les offres grand public de Gemini.

Les DPA dédiés de Wysor avec chaque fournisseur réduisent la conservation au strict minimum technique — et pour la plupart des fournisseurs, c'est zéro. Vos conversations vivent dans votre espace de travail, pas sur les serveurs des fournisseurs pendant des mois ou des années.


Les trois utilisent vos conversations pour entraîner leurs modèles

Par défaut. Tous les trois.

  • Claude : activation par défaut depuis octobre 2025 — mais Anthropic l'a réglé sur « activé » pour les utilisateurs qui n'ont pas répondu activement
  • ChatGPT : activé par défaut. Enfoui dans Paramètres > Contrôle des données
  • Gemini : activé par défaut. Désactivez « Conserver l'activité » pour refuser

Ce contrat que vous avez collé ? C'est désormais des données d'entraînement. Cette négociation salariale ? Des données d'entraînement. Cette question médicale que vous n'osiez pas poser à votre médecin ? Des données d'entraînement.

Le seul moyen d'y mettre fin est un abonnement entreprise — et c'est une discussion à plus de 25 000 $ avec une équipe commerciale.

Wysor ne s'entraîne jamais sur vos données. Ni en gratuit. Ni en payant. Sur aucune offre. C'est contractuel, pas un simple bouton.


Quelqu'un chez Google est peut-être en train de lire vos conversations

Celle-ci surprend les gens.

Google a au moins le mérite d'être honnête. Ils avertissent explicitement les utilisateurs de Gemini : « Ne saisissez pas d'informations confidentielles que vous ne voudriez pas qu'un évaluateur voie. » Les conversations relues par des humains sont conservées jusqu'à 3 ans, dissociées de votre compte — et supprimer la conversation ne supprime pas la copie relue.

OpenAI échantillonne 1 à 2 % de toutes les conversations pour relecture humaine, plus tout ce qui est signalé par les systèmes automatiques.

Anthropic transmet les conversations Claude signalées à son équipe Trust & Safety. Ces entrées et sorties signalées peuvent être conservées jusqu'à 2 ans, avec des scores de sécurité conservés jusqu'à 7 ans.

Avec Wysor, aucun humain chez un fournisseur d'IA ne voit jamais vos conversations. Nos DPA interdisent contractuellement la relecture humaine, l'échantillonnage et le signalement. Personne ne lit vos échanges.


« Supprimer » ne signifie pas ce que vous croyez

  • Gemini : si votre conversation a été sélectionnée pour relecture humaine avant sa suppression, cette copie persiste jusqu'à 3 ans. Vous ne pouvez pas la supprimer. Vous ne savez peut-être même pas qu'elle existe.
  • Claude : les conversations signalées sont conservées jusqu'à 2 ans. La suppression n'y change rien.
  • ChatGPT : en 2025, un juge fédéral dans NYT v. OpenAI a ordonné à OpenAI de préserver toutes les données de conversation — y compris les échanges que les utilisateurs avaient explicitement supprimés — en tant que preuves potentielles. Les utilisateurs Free, Plus, Pro et Team étaient tous concernés. Les clients Enterprise et API étaient exemptés, cette fois-ci.

Avec Wysor, supprimer signifie supprimer. Quand les fournisseurs ne conservent pas vos données au-delà de la fenêtre minimale de traitement, il n'y a rien à signaler, rien à préserver pour un litige, et rien qui traîne sur un serveur trois ans plus tard.


Un juge fédéral vient de statuer que vos conversations IA ne sont pas couvertes par le secret professionnel

En février 2026, United States v. Heppner a établi que les conversations avec Claude AI ne sont pas protégées par le secret professionnel avocat-client et ne constituent pas un produit du travail protégé.

Le raisonnement : les politiques d'Anthropic autorisent la divulgation aux autorités gouvernementales et permettent l'utilisation pour l'entraînement des modèles. Il n'y a aucune attente raisonnable de confidentialité.

Le précédent est clair : toute conversation IA sur une offre grand public est potentiellement communicable dans le cadre de procédures judiciaires.

C'est exactement la raison pour laquelle minimiser la conservation côté fournisseur est essentiel. Un tribunal ne peut pas contraindre un fournisseur à transmettre des données qui n'ont jamais été stockées.


Votre voix va dans des endroits que vous n'avez pas acceptés

Les fonctionnalités vocales de l'IA sont populaires. Les circuits de données qui les sous-tendent sont alarmants.

Claude Voice

  • L'audio est envoyé aux serveurs d'Anthropic, puis supprimé dans les ~24 heures
  • Quand Claude vous répond à l'oral, il utilise ElevenLabs — un tiers — pour la synthèse vocale. Le contenu de votre conversation est envoyé à leurs serveurs
  • Le prestataire de reconnaissance vocale n'est pas publiquement divulgué
  • Aucun accord Zero Data Retention public entre Anthropic et ElevenLabs

ChatGPT Voice

  • Les clips audio et vidéo sont conservés avec votre conversation aussi longtemps que l'échange existe
  • OpenAI est le seul fournisseur qui conserve vos enregistrements audio par défaut
  • L'audio n'est pas utilisé pour l'entraînement, mais les transcriptions textuelles peuvent l'être si vous n'avez pas désactivé cette option

Gemini Voice

  • Le « Ephemeral Learning » de Google semble rassurant — l'audio est traité en RAM puis supprimé. Mais cela ne s'applique qu'à l'entraînement du mot déclencheur (« Hey Google »), pas à vos requêtes réelles
  • Vos requêtes vocales sont toujours envoyées aux serveurs de Google. En 2019, des sous-traitants ont été surpris en train d'écouter plus de 1 000 enregistrements, y compris des activations accidentelles qui captaient des conversations de chambre à coucher et des informations médicales. Google a transigé pour 68 M$
  • Un recours collectif distinct couvrant les activations accidentelles de 2016 à 2022 est toujours en cours en 2026

Apple Siri

  • Requêtes traitées par les serveurs : Apple conserve les transcriptions jusqu'à 2 ans pour tous les utilisateurs
  • La dictée sur l'appareil reste locale, mais Apple collecte toujours des métadonnées — catégorie de requête, informations sur l'appareil, statistiques de performance
  • Si vous activez accidentellement « Améliorer Siri », Apple conserve vos enregistrements vocaux réels jusqu'à 2 ans, consultables par des employés
  • Apple affirme qu'un « identifiant aléatoire et rotatif » protège l'anonymat. Mais ils collectent votre IP, votre localisation, vos contacts et les informations de votre appareil avec chaque requête — c'est de la pseudonymisation, pas de l'anonymisation
  • Apple a transigé pour 95 M$ dans le cadre d'un procès sur les activations accidentelles de Siri

Wysor Voice

  • Tout se passe sur votre appareil. Votre audio ne quitte jamais votre téléphone
  • Pas de serveurs. Pas de tiers. Pas de traitement cloud. Fonctionne hors ligne
  • Nous ne pouvons pas divulguer vos données vocales parce que nous ne les recevons jamais

Les offres entreprise ne vous sauveront pas non plus

Les grands fournisseurs vous diront de passer à la version supérieure. Mais même si vous pouvez supporter le coût, il y a un problème qu'ils ne mentionnent pas : si vos données existent sur leurs serveurs, un tribunal peut les contraindre à les transmettre.

Claude EnterpriseChatGPT EnterpriseGemini WorkspaceWysor
Coût pour obtenir le ZDRAPI uniquement, sur approbation25 000 $+ de dépense, approbation spécialePas par défaut, nécessite une configurationRien. C'est le comportement par défaut.
Fenêtre d'exposition des donnéesIndéfinie (données signalées conservées)Indéfinie (sauf ZDR négocié)Indéfinie (sauf configuration spécifique)30 jours maximum (OpenAI uniquement). Autres : zéro.
Relecture humaineConversations signalées toujours reluesSignalées (aucune avec ZDR)AucuneAucune. Garanti contractuellement.

Vous pouvez dépenser 25 000 $ et négocier pendant des mois pour obtenir des protections qui laissent toujours vos données sur les serveurs de quelqu'un d'autre. Ou vous pouvez utiliser Wysor, où des DPA dédiés réduisent la conservation des fournisseurs au minimum technique, aucun humain ne relit vos conversations, et vous n'avez jamais besoin de parler à une équipe commerciale pour obtenir une confidentialité qui aurait dû être le comportement par défaut.


Alors, que faire concrètement ?

En ce moment, vos employés collent des contrats dans ChatGPT, discutent stratégie avec Claude et importent des données clients dans Gemini. Chacune de ces conversations est stockée, consultable, utilisable pour l'entraînement et communicable en justice.

Vous avez deux options.

Option A : Interdire l'IA au travail. Regarder vos concurrents vous dépasser pendant que votre équipe l'utilise quand même sur leurs appareils personnels — désormais sans aucune supervision ni aucune protection.

Option B : Leur donner Wysor. Tous les modèles majeurs — GPT-5, Claude, Gemini, Perplexity — dans un seul espace de travail. Des DPA dédiés qui minimisent la conservation chez les fournisseurs. Aucune relecture humaine. Aucun entraînement. Transcription vocale sur l'appareil. Conformité GDPR complète. Une seule piste d'audit au lieu de données dispersées chez quatre fournisseurs.

Les entreprises qui comprendront cela en premier ne se contenteront pas d'éviter les risques. Elles avanceront plus vite que tous ceux qui débattent encore de savoir s'il faut bloquer ChatGPT.


Pour aller plus loin

Commencez avec Wysor →


Toutes les affirmations sont issues des politiques de confidentialité officielles, des conditions d'utilisation, des documents judiciaires et de la documentation des fournisseurs en date de février 2026.