حذار زملاء العمل الذين ينتجون "Workslop" التي يتم إنشاؤها من الذكاء الاصطناعي
حذار زملاء العمل الذين ينتجون “Workslop” التي يتم إنشاؤها من الذكاء الاصطناعي
السبت - 27 سبتمبر - 2025
مطورون يدمجون نماذج آبل المحلية للذكاء الاصطناعي في تطبيقات iOS 26
مطورون يدمجون نماذج آبل المحلية للذكاء الاصطناعي في تطبيقات iOS 26
الأحد - 28 سبتمبر - 2025


متابعة – أمل علوي

 

طور الباحثون هجومًا جديدًا يُعرف باسم CAMIA (هجوم استنتاج العضوية الواعي بالسياق)، الذي يكشف عن نقاط الضعف المتعلقة بالخصوصية من خلال تحديد ما إذا كانت بيانات معينة قد استخدمت في تدريب نماذج الذكاء الاصطناعي. وقد أُعد هذا الهجوم بواسطة باحثين من شركة Brave والجامعة الوطنية في سنغافورة، ويعتبر أكثر فعالية بكثير من المحاولات السابقة لاستكشاف “ذاكرة” نماذج الذكاء الاصطناعي.

مخاوف من “تخزين البيانات” في الذكاء الاصطناعي
تزايدت المخاوف بشأن تخزين البيانات في الذكاء الاصطناعي، حيث يمكن أن تخزن النماذج معلومات حساسة بصورة غير مقصودة. على سبيل المثال، قد يكشف نموذج تم تدريبه على ملاحظات سريرية معلومات حساسة عن المرضى. وإذا تم استخدام رسائل البريد الإلكتروني الداخلية في التدريب، فقد يتمكن المهاجم من خداع نموذج اللغة الكبير (LLM) لإعادة إنتاج اتصالات خاصة بالشركة.

وقد زادت هذه المخاوف بعد إعلانات حديثة، مثل خطة LinkedIn لاستخدام بيانات المستخدمين لتحسين نماذج الذكاء الاصطناعي التوليدية، مما يثير تساؤلات حول إمكانية ظهور المحتوى الخاص في النصوص المولدة.

كيفية عمل هجوم CAMIA
يستخدم الخبراء الأمنيون هجمات استنتاج العضوية (MIA) لاختبار تسرب المعلومات. يقوم MIA بطرح سؤال حاسم على النموذج: “هل رأيت هذا المثال خلال التدريب؟”. إذا تمكن المهاجم من معرفة الإجابة بشكل موثوق، فهذا يعني أن النموذج يكشف معلومات عن بيانات تدريبه، مما يمثل خطرًا مباشرًا على الخصوصية.

الفكرة الأساسية
تعتمد فكرة CAMIA على أن عمليات حفظ المعلومات في نماذج الذكاء الاصطناعي تعتمد على السياق. يعتمد النموذج على التخزين عندما يكون غير متأكد مما يجب قوله بعد ذلك. على سبيل المثال، إذا كانت المقدمة هي “هاري بوتر هو… كتب بواسطة… عالم هاري…”، فإن النموذج يمكنه بسهولة تخمين الكلمة التالية “بوتر”. ومع ذلك، إذا كانت المقدمة “هاري” فقط، فإن التنبؤ بـ “بوتر” يصبح أكثر صعوبة دون حفظ تسلسلات تدريب محددة.

نتائج الاختبار
اختبر الباحثون CAMIA على معيار MIMIR عبر عدة نماذج مثل Pythia وGPT-Neo. عندما هاجموا نموذج Pythia الذي يحتوي على 2.8 مليار معلمة على مجموعة بيانات ArXiv، زادت دقة الكشف تقريبًا بمقدار الضعف مقارنة بالطرق السابقة. حيث ارتفعت نسبة الإيجابيات الحقيقية من 20.11% إلى 32.00% مع الحفاظ على معدل منخفض جدًا من الإيجابيات الكاذبة بنسبة 1%.

يُظهر هذا العمل المخاطر المتعلقة بالخصوصية في تدريب نماذج أكبر على مجموعات بيانات ضخمة وغير مصفاة. يأمل الباحثون أن يُحفز عملهم تطوير تقنيات أكثر حفاظًا على الخصوصية ويساهم في الجهود المستمرة لتحقيق التوازن بين فائدة الذكاء الاصطناعي وخصوصية المستخدمين الأساسية.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.



مشاركة الخبر
أخبار مشابهة