الذكاء الاصطناعي يعرف عنك أكثر مما تظن: مقارنة الخصوصية بين Claude وChatGPT وGemini
جرّب هذا قبل أن تكمل القراءة. افتح ChatGPT واكتب: "ما هو أكثر شيء شخصي سألتك إياه على الإطلاق؟"
ستكون الإجابة أكثر تحديداً مما توقعت. وأكثر حميمية. وأكثر كشفاً. قد لا تتذكر حتى أنك كتبتها. لكن النموذج يتذكرها.
لأن الذكاء الاصطناعي يملك كل شيء. العقد الذي يحتوي على راتبك. الرسالة الصوتية حول طفح جلدي. الرسالة الصعبة التي صغتها لمديرك في الحادية عشرة ليلاً. السؤال الذي كنت محرجاً جداً من أن تكتبه في Google.
وهنا يأتي السؤال المزعج الذي لا يضعه أحد على صفحة التسعير: إلى أين تذهب كل هذه البيانات فعلياً؟
قرأنا السياسات نيابة عنك. وما وجدناه هو السبب وراء وجود Wysor.
المشهد الأول: العقد الذي لصقته
تُسقط عقداً من 14 صفحة في ChatGPT. تُبرز الراتب، وبند عدم المنافسة، والفقرة الغريبة المتعلقة بالملكية الفكرية.
في الخطة الاستهلاكية، تبقى تلك المحادثة على خوادم OpenAI طالما أن حسابك نشط. تضغط على "حذف" ويستغرق الأمر ما يصل إلى 30 يوماً حتى تغادر أنظمتهم فعلياً. وفي بعض الحالات لا تغادر على الإطلاق: ففي عام 2025، أمرت محكمة في قضية NYT v. OpenAI شركة OpenAI بالحفاظ على بيانات المحادثات، بما في ذلك المحادثات التي حذفها المستخدمون.
المشهد نفسه ينطبق على Claude. تُخزَّن لمدة 30 يوماً افتراضياً. وإذا كان مفتاح التدريب لدى Anthropic مُفعّلاً (ومنذ أكتوبر 2025 أصبح مفعّلاً افتراضياً بنظام الاشتراك الاختياري، أي أن أي شخص ضغط على النافذة دون قراءتها قد وافق)، فيمكن الاحتفاظ بتلك المحادثة لمدة تصل إلى خمس سنوات.
أما في Gemini، فتصل المدة إلى 18 شهراً. قم بإيقاف "الاحتفاظ بالنشاط" ومع ذلك تحتفظ Google بالبيانات لمدة 72 ساعة على الأقل.
ماذا تعني كلمة "مُخزَّن" فعلياً
"مُخزَّن" لا تعني مُغلقاً في خزنة. "مُخزَّن" تعني أن المزوّد يستطيع فتحه، والبحث فيه، وفهرسته، وتحليله، وتسليمه للأنظمة والأشخاص الذين يختارون منحهم حق الوصول. فريق المراجعة لديهم يمكنه فتحه. خطوط أنابيب التدريب لديهم يمكنها استيعابه. مهندسوهم يستطيعون الاستعلام عنه أثناء تصحيح الأخطاء.
أما ما إذا كان الملف مُشفّراً على القرص فهذا سؤال يتعلق بالمهاجمين الخارجيين. وليس السؤال الذي يهم فيما يخص عقدك. السؤال الذي يهم هو: من داخل الشركة، وأي من أنظمتهم الداخلية، يستطيع الوصول إليه؟ وفي الخطة الاستهلاكية، الإجابة هي: كثير منهم.
أمر المحكمة لم يكن حصرياً على OpenAI
تذكير سريع، لأن معظم الناس لم يسمعوا بهذا. في عام 2023، رفعت صحيفة نيويورك تايمز دعوى قضائية ضد OpenAI بشأن استخدام مقالات الصحيفة لتدريب نماذجها. وفي منتصف عام 2025، خلال سير تلك القضية، أمرت محكمة فيدرالية شركة OpenAI بالحفاظ على جميع محادثات مستخدمي ChatGPT تقريباً كأدلة محتملة، بما في ذلك المحادثات التي سبق للمستخدمين حذفها. المستخدمون العاديون لم يكونوا أطرافاً في الدعوى. ومع ذلك حُفظت بياناتهم.
وقد صادف أن يقع ذلك الأمر على OpenAI أولاً، لكن المبدأ ينطبق على أي مزوّد يحتفظ بمحادثاتك. شركة Anthropic وGoogle وكل مزوّد آخر يحتفظ ببيانات المستخدم يخضع لنفس النوع من الإجراءات القانونية. أمر حفظ، أو مذكرة استدعاء، أو طلب كشف. وأي محكمة في أي ولاية قضائية تعمل فيها الشركة يمكنها إلزامها بإنتاج أو حفظ السجلات التي تحتفظ بها فعلاً.
القاعدة بسيطة. إذا كانت البيانات موجودة، يمكن طلبها. الدفاع الحقيقي الوحيد هو ألا تحتفظ بالبيانات من الأساس.
عقدك ليس استعلام بحث. إنه وثيقة تحمل اسمك، وراتبك، واسم صاحب عملك. وهو الآن موجود على جهاز شخص آخر.
مع عدم الاحتفاظ بالبيانات، يُعالَج العقد نفسه، ويُجاب عليه، ثم يختفي. لا تُكتب نسخة على القرص. لا يمكن لأي موظف فتحه لاحقاً، لأن "لاحقاً" غير موجود. لا يمكن لأي محكمة إلزامه بالإنتاج، لأنه لا يوجد شيء لإنتاجه. بياناتك آمنة لأنها لم تُحفَظ أبداً.
المشهد الثاني: فكرتك هي المنتج
صفحة مساعدة Gemini الخاصة بـ Google صريحة: "يُرجى عدم إدخال معلومات سرية لا تودّ أن يراها المراجع أو أن تستخدمها Google لتحسين خدماتنا، بما في ذلك تقنيات التعلم الآلي."
هذا ليس تحذيراً من ضبط الجهات السيئة. إنه اعتراف بأن المحادثات التي تُجريها مع Gemini مادة للمراجعة البشرية وتحسين المنتج. ويمكن الاحتفاظ بتلك المحادثات المُراجَعة لمدة ثلاث سنوات.
هذا مهم بسبب ما يستخدم الناس الذكاء الاصطناعي من أجله فعلياً. فكرة جديدة. عرض لعميل. خط إنتاج لم يُعلن عنه أحد. قطعة كتابية لم يرها العالم بعد. تلصقها في النموذج. تعصف ذهنياً. تصقل. تصف الشيء الذي لم تُطلقه بعد.
وفي الطرف البعيد من تلك المحادثة تجلس شركة يتمثل عملها في فهم ما يبنيه الناس، وما يطلبونه، وما هم مستعدون لدفع ثمنه. الشركة نفسها التي تبيع الإعلانات، وتبيع أدوات منافسة، وتبيع منتجات ذكاء اصطناعي خاصة بها. فكرتك غير المُطلقة هي، بالمعنى الحرفي، معلومات استخباراتية قيّمة لهم.
تطبيقات الجهات الخارجية المُجمِّعة تضاعف من التعرّض. شركة صغيرة تُغلّف عدة نماذج خلف واجهة واحدة، وتُدخل تحليلاتها الخاصة وموظفيها بينك وبين المزوّد، وترث الوصول إلى كل ما تُقدّمه. سطح الثقة يتضاعف. والرقابة لا.
ولا شيء من هذا موجود بمعزل عن غيره. الشركات التي تقف وراء أكبر منتجات الذكاء الاصطناعي هي نفس الشركات التي تتعقبك عبر الويب منذ سنوات. بيكسلات إعلاناتها تعرف بالفعل المواقع التي تزورها، والمنتجات التي تفكر فيها، والمشكلات التي تحاول حلّها. إضافة محادثاتك مع الذكاء الاصطناعي إلى ذلك الملف التعريفي ليست مسألة خصوصية منفصلة. إنه الملف نفسه، بتغذية أغنى بكثير.
بنينا Wysor لأن الملف التعريفي يجب ألا يصبح أغنى. اقرأ كيف نتعامل مع التتبّع على موقعنا الإلكتروني ←
الخطر ليس ما أفضيت به إلى الذكاء الاصطناعي. الخطر هو الفكرة التي لصقتها قبل أن تكون مستعداً لعرضها على أي شخص.
المشهد الثالث: الرسالة الصوتية
أنت تسير وتتحدث. تُخبر هاتفك عن عَرَض، أو عميل، أو جدال سيّئ.
إليك ما يحدث بعد ذلك، بحسب الزر الذي ضغطت عليه:
ChatGPT يحتفظ بالصوت طالما أن المحادثة موجودة. ليس مادة تدريب، لكنه موجود.
Claude يُرسل الصوت إلى خوادم Anthropic، ويحذفه في غضون نحو 24 ساعة، ويُشغّل تحويل النص إلى كلام عبر ElevenLabs، وهي جهة خارجية، دون ترتيب علني لعدم الاحتفاظ بينهما.
Gemini يعالج كلمة التنبيه محلياً لكنه يُرسل الطلب الفعلي إلى Google. وقد سبق أن دفعت Google 68 مليون دولار لتسوية دعوى قضائية بشأن طريقة تعاملها مع البيانات الصوتية.
Siri يُخزّن النصوص المُعالَجة على الخادم لمدة تصل إلى عامين. وقد سوّت Apple دعواها الصوتية الخاصة بمبلغ 95 مليون دولار بعد أن كان Siri يتفعّل دون أن يقول أحد "Hey Siri".
Wysor Voice على تطبيق iOS يُنقل الكلام إلى نص على الجهاز نفسه. الصوت لا يغادر هاتفك أبداً.
المشهد الرابع: الدعوى القضائية التي لم تتوقعها
فبراير 2026. قضية تُسمى United States v. Heppner أرست مبدأ أن محادثاتك مع مساعدي الذكاء الاصطناعي ليست محمية بامتياز العلاقة بين المحامي وموكله، وليست من نتاج العمل أيضاً.
كان منطق المحكمة بسيطاً: سياسات المزوّد تسمح بالإفصاح للسلطات وقد تسمح بالاستخدام للتدريب. لا يوجد توقع معقول للسرية. لذا فإن أي شيء على خطة استهلاكية للذكاء الاصطناعي قابل للكشف في الإجراءات القانونية.
اقرأ ذلك مجدداً. الشيء الذي أخبرته لـ ChatGPT هو الشيء الذي يمكن للمحامي استدعاؤه.
ماذا تعني "عدم الاحتفاظ بالبيانات" فعلياً
عدم الاحتفاظ بالبيانات (ZDR) هو ترتيب تعاقدي مع مزوّد الذكاء الاصطناعي يُغيّر دورة حياة محادثتك على المستوى التقني.
في إطار الخطة الاستهلاكية العادية، يُسجَّل كل رسالة ترسلها على خوادم المزوّد. يُحتفظ بها لأيام، أو أشهر، أو سنوات. قد تُدرَج في قائمة انتظار للمراجعة البشرية. قد تُغذّي النموذج التالي. الحذف عملية تحدث لاحقاً، إن حدثت أصلاً.
في إطار عدم الاحتفاظ بالبيانات، لا يحدث أي من ذلك. تصل رسالتك إلى المزوّد. يُنتج النموذج رداً. يُعاد الرد إليك. في تلك اللحظة، يُتخلَّص من الطلب والرد من البنية التحتية للمزوّد. لا سجلات. لا نسخ احتياطية. لا بيانات تدريب مُحتفَظ بها.
لا تزال مُصنّفات الأمان الآلية تعمل عند لحظة الطلب (كل مزوّد رئيسي يشترط ذلك، ونحن كذلك، لمنع استخدام النموذج لإساءة جسيمة)، لكنها تُنفَّذ على الطلب الحي ولا تُنشئ سجلاً مُخزّناً لمحادثتك بعد ذلك.
لا يوجد شيء يمكن استدعاؤه لاحقاً، لأنه لم يُحتفَظ بأي شيء. لا يوجد شيء للتدريب عليه لاحقاً، لأن البيانات غير موجودة بعد ثانية واحدة من توليد الإجابة.
هذه هي الحماية التي تدفع المؤسسات الكبيرة ثمنها، وتوقّع اتفاقيات المشتريات للحصول عليها. أما الجميع فيُتركون على خطط يكون فيها الاحتفاظ هو الوضع الافتراضي.
إذاً، ما الفرق مع Wysor؟
نحن لا نطلب منك أن تثق بمفتاح تبديل. نحن نوقّع عقوداً.
عدم الاحتفاظ بالبيانات هو الوضع الافتراضي في Wysor، وليس الترقية. كل مزوّد نوجّه إليه (Claude وGPT-5 وGemini وPerplexity، وكل نموذج مفتوح المصدر نُقدّمه) مُغلَّف باتفاقية مخصصة تضبط الاحتفاظ على الحد الأدنى التقني. بالنسبة لمعظم المزوّدين، ذلك الحد الأدنى هو صفر. محادثتك تُعالَج ثم تختفي.
نحن لا نُدرّب على بياناتك أبداً. لا في الخطة المجانية. لا في المدفوعة. لا في أي خطة. هذا موجود في العقد، وليس إعداداً عليك أن تتذكر تبديله.
تعمل كثير من نماذجنا على خوادم داخل الاتحاد الأوروبي. تُجاب رسالتك على بنية تحتية أوروبية، ولا تغادر بياناتك الاتحاد الأوروبي لتُعالَج. يمكنك رؤية النماذج المستضافة في الاتحاد الأوروبي على صفحة النماذج لدينا.
على تطبيق iOS، يعمل نقل الصوت إلى نص على جهازك.
ولست بحاجة إلى فريق مشتريات للوصول إلى أي من هذا. يكفي أن تُسجّل.
لمحة عامة
| Claude Pro | ChatGPT Plus/Pro | Gemini Advanced | Wysor | |
|---|---|---|---|---|
| الاحتفاظ الافتراضي | 30 يوماً (حتى 5 سنوات إذا كان التدريب مُفعّلاً) | طالما أن الحساب نشط | 18 شهراً | صفر لدى معظم المزوّدين |
| التدريب على بياناتك | اشتراك اختياري، مُفعّل افتراضياً | مُفعّل افتراضياً | مُفعّل افتراضياً | أبداً |
| أين تُعالَج بياناتك | الولايات المتحدة (الوضع الاستهلاكي الافتراضي) | الولايات المتحدة (الوضع الاستهلاكي الافتراضي) | الولايات المتحدة (الوضع الاستهلاكي الافتراضي) | الاتحاد الأوروبي لكثير من النماذج |
| الصوت | الصوت إلى الخوادم، ~24 ساعة | مُخزَّن مع المحادثة | يُرسَل إلى Google | على الجهاز (تطبيق iOS) |
| كيف تحصل عليه | 20 دولاراً/شهرياً | 20 دولاراً/شهرياً | 20 دولاراً/شهرياً | الخطة المجانية تعمل أيضاً |
ماذا يعني هذا حقاً
ذكاؤك الاصطناعي يعرف راتبك، وأعراضك، والشيء الذي تخاف أن تُخبر به شريكك. كما يعرف منتجك غير المُطلق، وتسعيرك، واستراتيجية عملائك، والفكرة التي لم يسمع بها أحد بعد. لا شيء من ذلك هو مشكلة ميزة. كله مشكلة تخزين.
Wysor يحمي الاثنين معاً. محادثاتك الشخصية تبقى لك. وكذلك محادثات أعمالك. فكرتك الجديدة ليست مادة لجولة تدريب لشخص آخر. عمل عملائك ليس معلومات استخباراتية لشركة تبيع أيضاً أدوات منافسة. تسعيرك ليس سطراً في قائمة انتظار مراجع.
نمنح كل مستخدم، من حساب مجاني إلى خطة أعمال كاملة، نوع حماية الخصوصية التي كانت تتطلب في السابق دورة مشتريات.
الحذف يجب أن يعني الحذف. الصوت يجب أن يبقى على هاتفك. فكرتك التالية يجب أن تبقى لك.
تابع القراءة
- خصوصية كاملة: بياناتك لا تغادر سيطرتك أبداً
- رسائلك الصوتية تُرسَل إلى Apple. أما لدينا فلا.
- الذكاء الاصطناعي الظل: حين يستخدم موظفوك ChatGPT من وراء ظهرك
- بنينا مساحة العمل الذكية التي كان ينبغي أن توجد قبل 3 سنوات
جميع المزاعم مستندة إلى سياسات الخصوصية الرسمية، وشروط الخدمة، والمستندات القضائية، ووثائق المزوّدين حتى فبراير 2026.



