متابعة – أمل علوي
وسائل الإعلام المنطقية، أصدرت تقييمات غير ربحية تركز على الأطفال التي تركز على سلامة الأطفال تقييمات ومراجعات للوسائط والتكنولوجيا ، تقييمها للمخاطر لمنتجات Google Gemini AI يوم الجمعة. بينما وجدت المؤسسة أن منظمة العفو الدولية من Google أخبر الأطفال بوضوح أنها كمبيوتر ، وليس صديقًا – شيء مرتبط بالمساعدة في القيادة الوهمية التفكير و ذهان في الأفراد المعرضين للعاطفة – أشار إلى أنه كان هناك مجال للتحسين عبر العديد من الجبهات الأخرى.
على وجه الخصوص ، قال Common Sense إن مستويات Gemini “Under 13” و “Teen Experience” يبدو أن كلا من الإصدارات البالغة من الجوزاء تحت الغطاء ، مع إضافة بعض ميزات السلامة الإضافية فقط. تعتقد المنظمة أنه لكي تكون منتجات الذكاء الاصطناعى أكثر أمانًا للأطفال ، يجب أن يتم بناؤها مع مراعاة سلامة الطفل من الألف إلى الياء.
على سبيل المثال ، وجد تحليلها أن الجوزاء لا يزال بإمكانه مشاركة مواد “غير ملائمة وغير آمنة” مع الأطفال ، والتي قد لا تكون جاهزة ، بما في ذلك المعلومات المتعلقة بالجنس والمخدرات والكحول وغيرها من المشورة الصحية غير الآمنة.
هذا الأخير يمكن أن يكون مصدر قلق خاص للآباء والأمهات ، حيث ورد أن منظمة العفو الدولية لعبت دورًا في بعض حالات الانتحار في سن المراهقة في الأشهر الأخيرة. يواجه Openai أول دعوى قضائية على الموت غير المشروع بعد أن توفي صبي يبلغ من العمر 16 عامًا بسبب الانتحار بعد أن استشارك مع Chatgpt لعدة أشهر حول خططه ، حيث نجح في تجاوز الدرابزين السلامة في Chatbot. في السابق ، تم رفع دعوى ضد شخصية صانع AI Companion.
بالإضافة إلى ذلك ، يأتي التحليل في الوقت الذي تشير فيه تسرب الأخبار إلى أن Apple تعتبر Gemini كطراز LLM (نموذج اللغة الكبير) الذي سيساعد على تشغيل SIRI القادم الذي يدعم الذكاء الاصطناعي ، في العام المقبل. قد يعرض ذلك المزيد من المراهقين للمخاطر ، ما لم تخفف Apple عن مخاوف السلامة بطريقة ما.
قال المنطق السليم أيضًا أن منتجات الجوزاء للأطفال والمراهقين تجاهلت كيف يحتاج المستخدمون الأصغر سناً إلى إرشادات ومعلومات مختلفة عن تلك القديمة. ونتيجة لذلك ، تم تصنيف كلاهما على أنهما “مخاطر عالية” في التصنيف الكلي ، على الرغم من أن المرشحات المضافة للسلامة.
وقال روبي تورني في بيان حول التقييم الجديد الذي ينظر إليه TechCrunch: “يحصل Gemini على بعض الأساسيات بشكل صحيح ، لكنه يتعثر في التفاصيل”. وأضاف تورني: “يجب أن تقابلهم منصة منظمة العفو الدولية للأطفال حيث هم ، وليس اتباع نهج واحد يناسب الجميع في مراحل مختلفة من التطوير. لكي تكون الذكاء الاصطناعي آمنة وفعالة للأطفال ، يجب أن يتم تصميمها مع مراعاة احتياجاتهم وتطويرهم ، وليس فقط نسخة معدلة من منتج تم تصميمه للبالغين”.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
دفعت Google مرة أخرى ضد التقييم ، مع الإشارة إلى أن ميزات السلامة الخاصة بها كانت تتحسن.
أخبرت الشركة TechCrunch أن لديها سياسات محددة ومكافآت محددة للمستخدمين الذين تقل أعمارهم عن 18 عامًا للمساعدة في منع المخرجات الضارة وأنها تتشاور مع خبراء خارجيين لتحسين حمايةها. ومع ذلك ، اعترف أيضًا بأن بعض ردود الجوزاء لم تكن تعمل على النحو المقصود ، لذلك أضافت ضمانات إضافية لمعالجة هذه المخاوف.
أشارت الشركة (كما لاحظت المنطق السليم أيضًا) إلى أن لديها ضمانات لمنع نماذجها من الانخراط في المحادثات التي يمكن أن تعطي مظاهر العلاقات الحقيقية. بالإضافة إلى ذلك ، اقترحت Google أن تقرير Common Sense يبدو أنه أشار إلى الميزات التي لم تكن متاحة للمستخدمين الذين تقل أعمارهم عن 18 عامًا ، لكن لم يكن لديها إمكانية الوصول إلى الأسئلة التي استخدمتها المؤسسة في اختباراتها للتأكد.
سبق أن قامت وسائل الإعلام المنطقية بأداء آخر التقييمات من خدمات الذكاء الاصطناعي ، بما في ذلك تلك من Openaiو الحيرةو كلودو ميتا منظمة العفو الدولية، و أكثر. وجد أن META AI و الحرف كانت “غير مقبولة” – وهذا يعني أن الخطر كان شديدًا ، وليس مرتفعًا فقط. تم اعتبار الحيرة عالية المخاطر ، وتم تصنيف ChatGPT “معتدل” ، ووجد كلود (المستهدف للمستخدمين 18 وما فوق) أن يكون الحد الأدنى من المخاطر.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي