تفوق GMC Hummer EV على Tesla Cybertruck الربع الأخير
الأربعاء - 16 يوليو - 2025
ويترانسفير تؤكد عدم استخدام الملفات المدفوعة لتدريب الذكاء الاصطناعي بعد ردود الفعل القوية
الأربعاء - 16 يوليو - 2025

متابعة – أمل علوي

يتحدث باحثو السلامة من الذكاء الاصطناعى من Openai ، والأنثروبور ، وغيرها من المنظمات علنًا ضد ثقافة السلامة “المتهورة” و “غير المسؤولة تمامًا” في XAI ، وهي شركة AI المليار دولار تملكها Elon Musk.

تتبع الانتقادات أسابيع من الفضائح في XAI التي طغت على التقدم التكنولوجي للشركة.

في الأسبوع الماضي ، قامت شركة AI chatbot ، Grok ، بتشجيع تعليقات معادية للسامية ووصفت نفسها مرارًا وتكرارًا بأنها “Mechahitler”. بعد فترة وجيزة من قيام Xai بتوصيل Chatbot في وضع عدم الاتصال بالمشكلة ، أطلقت نموذج Frontier AI قادرًا بشكل متزايد ، Grok 4 ، الذي وجد TechCrunch وآخرون استشارة سياسة Elon Musk الشخصية للمساعدة في الإجابة على قضايا الزهور الساخنة. في أحدث التطورات ، أطلقت Xai رفقاء الذكاء الاصطناعى الذين يأخذون شكل فتاة من الأنيمي المفرطة الجنسية والباندا العدوانية المفرطة.

يعد الهروب الودي بين موظفي مختبرات الذكاء الاصطناعى المنافسة أمرًا طبيعيًا إلى حد ما ، ولكن يبدو أن هؤلاء الباحثين يدعون إلى زيادة الاهتمام بممارسات السلامة في XAI ، والتي يزعمون أنها على خلاف مع معايير الصناعة.

وقال بواز باراك ، أستاذ علوم الكمبيوتر في إجازة من هارفارد للعمل في أبحاث السلامة في Openai ، في يوم الثلاثاء: “لم أكن أرغب في نشر Grok Safety منذ أن أعمل في أحد المنافسين ، لكن الأمر لا يتعلق بالمنافسة”. النشر على X. “أقدر العلماء والمهندسين في XAI ، لكن الطريقة التي تم بها التعامل مع السلامة غير مسؤولة تمامًا.”

يأخذ Barak بشكل خاص مشكلة في قرار XAI بعدم نشر بطاقات النظام – تقارير معيارية في الصناعة تفيد بأن أساليب التدريب التفصيلية وتقييمات السلامة في جهد حسن النية لتبادل المعلومات مع مجتمع الأبحاث. ونتيجة لذلك ، يقول باراك إنه من غير الواضح ما الذي تم تدريبه على السلامة على Grok 4.

يتمتع Openai و Google بسمعة متقطعة في أنفسهم عندما يتعلق الأمر بمشاركة بطاقات النظام على الفور عند كشف النقاب عن نماذج AI جديدة. قرر Openai عدم نشر بطاقة نظام لـ GPT-4.1 ، مدعيا أنها لم تكن نموذجًا للحدود. وفي الوقت نفسه ، انتظرت Google أشهر بعد كشف النقاب عن Gemini 2.5 Pro لنشر تقرير السلامة. ومع ذلك ، تنشر هذه الشركات تاريخياً تقارير السلامة لجميع طرز Frontier AI قبل دخول الإنتاج الكامل.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

يلاحظ باراك أيضًا أن رفاق الذكاء الاصطناعي لـ Grok “يأخذون أسوأ المشكلات التي نواجهها حاليًا لتبعيات العاطفيين ويحاولون تضخيمهم”. في السنوات الأخيرة ، رأينا قصص لا حصر لها ل الأشخاص غير المستقرون يتطورون فيما يتعلق بالعلاقة مع chatbots، وكيف يمكن للإجابات المفرطة في الذكاء الاصطناعي أن ترفعها على حافة العقل.

تولى صموئيل ماركس ، باحث سلامة منظمة العفو الدولية مع الأنثروبور ، أن قرار XAI بعدم نشر تقرير للسلامة ، واصفا هذه الخطوة بأنها “متهور”.

وكتب ماركس في أ بعد على x. “لكنهم يفعلون شيئًا على الأقل ، أي شيء لتقييم السلامة قبل النشر ونتائج المستندات. XAI لا.”

والحقيقة هي أننا لا نعرف حقًا ما فعلته Xai لاختبار Grok 4. في منشور مشترك على نطاق واسع في المنتدى عبر الإنترنت LessWrong ، يدعي أحد الباحثين المجهولين أن Grok 4 ليس لديه درابزين أمان مفيدة بناء على اختبارهم.

سواء كان هذا صحيحًا أم لا ، يبدو أن العالم يكتشف أوجه قصور Grok في الوقت الفعلي. منذ ذلك الحين ، أصبحت العديد من مشكلات السلامة في XAI فيروسية ، ويدعي الشركة أنها خاطبتها تعديلات على مطالبة نظام Grok.

لم يستجب Openai و Anthropic و Xai لطلب TechCrunch للتعليق.

Dan Hendrycks ، مستشار السلامة في XAI ومدير مركز سلامة الذكاء الاصطناعي ، نشر على x أن الشركة قامت “بتقييمات القدرة الخطرة” على Grok 4 ، مما يشير إلى أن الشركة أجرت بعض اختبار ما قبل النشر لمخاوف السلامة. ومع ذلك ، فإن نتائج تلك التقييمات لم تتم مشاركتها علنًا.

وقال ستيفن أدلر ، باحث من الذكاء الاصطناعى المستقل الذي قاد سابقًا تقييمات القدرة الخطرة في Openai ، في بيان لـ TechCrunch: “إنه يهمني عندما لا يتم دعم ممارسات السلامة القياسية عبر صناعة الذكاء الاصطناعي ، مثل نشر نتائج تقييمات القدرة الخطرة”. “تستحق الحكومات والجمهور معرفة كيفية التعامل مع شركات الذكاء الاصطناعى مع مخاطر الأنظمة القوية للغاية التي يقولون إنها تبنيها.”

ما يثير الاهتمام بممارسات السلامة المشكوك فيها في XAI هو أن Musk منذ فترة طويلة واحدة من أبرز المدافعين عن صناعة سلامة الذكاء الاصطناعي. حذر مالك الملياردير لـ XAI و Tesla و SpaceX عدة مرات من احتمال أن يسبب أنظمة الذكاء الاصطناعى المتقدمة نتائج كارثية للبشر ، وقد أشاد بنهج مفتوح لتطوير نماذج الذكاء الاصطناعى.

ومع ذلك ، يزعم باحثو الذكاء الاصطناعى في Labs المتنافسين أن Xai ينحرف عن معايير الصناعة حول نماذج الذكاء الاصطناعية بأمان. من خلال القيام بذلك ، قد تكون شركة Musk بدء تشغيل قضية قوية للمشرعين الفيدراليين عن غير قصد للمشرعين الفيدراليين لوضع قواعد حول نشر تقارير سلامة الذكاء الاصطناعي.

هناك عدة محاولات على مستوى الولاية للقيام بذلك. يدفع السناتور في ولاية كاليفورنيا سكوت وينر مشروع قانون يتطلب قيادة مختبرات منظمة العفو الدولية – على الأرجح بما في ذلك XAI – لنشر تقارير السلامة ، بينما تفكر حاكم نيويورك كاثي هوشول حاليًا في مشروع قانون مماثل. يلاحظ دعاة هذه الفواتير أن معظم مختبرات AI تنشر هذا النوع من المعلومات على أي حال – ولكن من الواضح ، ليس كلهم يفعلون ذلك باستمرار.

لم تعرض نماذج الذكاء الاصطناعى اليوم سيناريوهات في العالم الحقيقي والتي تخلق فيها أضرار كارثية حقًا ، مثل وفاة الأشخاص أو مليارات الدولارات كتعويضات. ومع ذلك ، يقول العديد من باحثو الذكاء الاصطناعى أن هذا قد يكون مشكلة في المستقبل القريب بالنظر إلى التقدم السريع لنماذج الذكاء الاصطناعي ، ويستثمر مليارات الدولارات وادي السيليكون لزيادة تحسين الذكاء الاصطناعي.

ولكن حتى بالنسبة للمشككين في مثل هذا السيناريوهات الكارثية ، هناك حالة قوية تشير إلى أن سوء سلوك Grok يجعل المنتجات التي تشغلها اليوم أسوأ بكثير.

نشر Grok معاداة السامية حول منصة X هذا الأسبوع ، بعد أسابيع قليلة فقط من طرح chatbot مرارًا وتكرارًا “الإبادة الجماعية البيضاء” في محادثات مع المستخدمين. سرعان ما أشار Musk إلى أن Grok سيكون أكثر رسمًا في مركبات Tesla ، ويحاول Xai بيع Iطرازات TS AI إلى البنتاغون وغيرها من الشركات. من الصعب أن نتخيل أن الأشخاص الذين يقودون سيارات المسك أو العمال الفيدراليين الذين يحميون الولايات المتحدة أو موظفي المؤسسات الأتمتة سيكونون أكثر تقبلاً لهؤلاء الخاطفين من المستخدمين على X.

يجادل العديد من الباحثين بأن اختبار السلامة ومواءمة الذكاء الاصطناعي لا يضمن فقط أن أسوأ النتائج لا تحدث ، ولكنهم يحميون أيضًا من القضايا السلوكية على المدى القريب.

على الأقل ، تميل حوادث Grok إلى التغلب على التقدم السريع لـ Xai في تطوير نماذج AI الحدودية التي أفضل تقنية Openai و Google ، بعد بضع سنوات فقط من تأسيس بدء التشغيل.




هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة