NVIDIA تسعى لحل مشكلات الذكاء الاصطناعي مع تعدد اللغات
NVIDIA تسعى لحل مشكلات الذكاء الاصطناعي مع تعدد اللغات
السبت - 16 أغسطس - 2025
آراء ماسك وألتمن وآخرين حول الدخل الأساسي الشامل الممول بالذكاء الاصطناعي
آراء ماسك وألتمن وآخرين حول الدخل الأساسي الشامل الممول بالذكاء الاصطناعي
السبت - 16 أغسطس - 2025

متابعة – أمل علوي

الإنسان أعلنت قدرات جديدة سيتيح ذلك لبعض من أحدث الطرز لها إنهاء المحادثات فيما تصفه الشركة بأنه “حالات نادرة ، متطرفة من تفاعلات المستخدم الضارة أو المسيئة باستمرار”. من المذهل ، أن الأنثروبور تقول إنها تفعل هذا ليس لحماية المستخدم البشري ، بل نموذج الذكاء الاصطناعى نفسه.

لكي نكون واضحين ، لا تدعي الشركة أن نماذج Claude AI لها بعيدة أو يمكن أن تتضرر من خلال محادثاتها مع المستخدمين. بكلماتها الخاصة ، لا تزال الأنثروبور “غير متأكد للغاية بشأن الوضع الأخلاقي المحتمل لكلود وغيرها من LLMs ، الآن أو في المستقبل.”

ومع ذلك ، يشير إعلانه إلى برنامج حديث تم إنشاؤه لدراسة ما يسميه “الرفاهية النموذجية” ويقول إن الأنثروبور تتخذ بشكل أساسي نهجًا عادلًا ، “العمل على تحديد وتنفيذ التدخلات منخفضة التكلفة للتخفيف من المخاطر للرفاهية النموذجية ، في حالة إمكانية هذا الرفاهية”.

يقتصر هذا التغيير الأخير حاليًا على كلود أوبوس 4 و 4.1. ومرة أخرى ، من المفترض أن يحدث فقط في “حالات الحافة المتطرفة” ، مثل “طلبات المستخدمين للمحتوى الجنسي الذي يشمل القاصرين ومحاولات التماس المعلومات التي من شأنها أن تمكن العنف على نطاق واسع أو أعمال الإرهاب”.

على الرغم من أن هذه الأنواع من الطلبات يمكن أن تخلق مشاكل قانونية أو دعاية لأنثروبور نفسها (شاهد تقارير حديثة حول كيفية تعزيز ChatGPT أو المساهمة في تفكير مستخدميها) ، إلا أن الشركة تقول إنه في اختبار ما قبل النشر ، أظهر كلود Opus 4 “تفضيلًا قويًا” ضد هذه الطلبات و “نمط من الضائقة الظاهرة” عندما فعلت ذلك.

أما بالنسبة لهذه القدرات الجديدة في نهاية المحادثة ، فإن الشركة تقول: “في جميع الحالات ، فإن كلود هو فقط لاستخدام قدرتها على نهاية المحادثة كملاذ أخير عندما فشلت محاولات متعددة في إعادة التوجيه ، وقد تم استنفاد التفاعل الإنتاجي ، أو عندما يطلب المستخدم صراحة كلود لإنهاء الدردشة”.

يقول الإنسان أيضًا إن كلود قد تم توجيهه إلى عدم استخدام هذه القدرة في الحالات التي قد يكون فيها المستخدمون معرضون لخطر وشيك لإيذاء أنفسهم أو غيرهم “.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

عندما ينهي Claud محادثة ، يقول الإنسان أن المستخدمين سيظلون قادرين على بدء محادثات جديدة من نفس الحساب ، وإنشاء فروع جديدة من المحادثة المزعجة من خلال تحرير ردودهم.

تقول الشركة: “إننا نتعامل مع هذه الميزة كتجربة مستمرة وسنواصل تحسين نهجنا”.


هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة