Nvidia logo on smart phone with GPU in the background.
تقوم Nvidia بتوسيع علاقات الذكاء الاصطناعي مع Hyundai وSamsung وSK وNaver
السبت - 1 نوفمبر - 2025
إعادة هيكلة تاريخية: OpenAI تؤسس كياناً خيرياً وتعيد تعريف شراكتها مع مايكروسوفت
إعادة هيكلة تاريخية: OpenAI تؤسس كياناً خيرياً وتعيد تعريف شراكتها مع مايكروسوفت
السبت - 1 نوفمبر - 2025


متابعة – أمل علوي

 

 

 

كشفت OpenAI عن عائلة جديدة من نماذج الأمان مفتوحة المصدر تحت اسم “gpt-oss-safeguard”، في خطوة تهدف إلى تمكين المطورين من تخصيص تصنيف المحتوى وتعزيز الشفافية في أنظمة الذكاء الاصطناعي.

 

نماذج مفتوحة المصدر بتراخيص مرنة

تتضمن العائلة الجديدة نموذجين:

 

gpt-oss-safeguard-120b: النموذج الأكبر حجماً

gpt-oss-safeguard-20b: النموذج الأصغر حجماً

 

ستكون النماذج متاحة بموجب ترخيص Apache 2.0 المُيسر، مما يمنح المنظمات حرية استخدامها وتعديلها ونشرها وفقاً لاحتياجاتها الخاصة.

 

منهجية ثورية في إدارة الأمان

يتميز النهج الجديد بعدم الاعتماد على مجموعة ثابتة من القواعد المضمنة في النموذج، بل يستخدم قدرات الاستدلال لتفسير سياسات الأمان الخاصة بالمطورين أثناء عملية التشغيل

مزايا استراتيجية للمطورين

الشفافية الكاملة

تستخدم النماذج عملية “سلسلة الفكر” (chain-of-thought)، مما يمكن المطورين من مراقبة المنطق المستخدم في التصنيف، متجاوزة بذلك نموذج “الصندوق الأسود” التقليدي.

 

المرونة التشغيلية

نظراً لأن سياسة الأمان غير مثبتة بشكل دائم في النموذج، يمكن للمطورين تحديث وتعديل إرشاداتهم بشكل فوري دون الحاجة إلى دورات إعادة تدوير كاملة.

 

توافر النماذج واستخداماتها

سيتمكن المطورون قريباً من الوصول إلى النماذج الجديدة عبر منصة Hugging Face، مما يوفر لهم:

 

القدرة على بناء وتطبيق معايير أمان مخصصة

 

المرونة في تعديل السياسات حسب متطلبات الاستخدام

 

الشفافية في عملية اتخاذ القرارات

 

تأثير استراتيجي على قطاع الذكاء الاصطناعي

تمثل هذه الخطوة تحولاً استراتيجياً في نموذج أمان الذكاء الاصطناعي، حيث تنتقل السلطة من مزودي النماذج إلى المطورين النهائيين، مما يعزز:

 

الابتكار في تطبيقات الأمان المخصصة

 

الشفافية في عمليات التصنيف

 

المرونة في التكيف مع المتطلبات المتغيرة

 

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.



مشاركة الخبر
أخبار مشابهة