متابعة – أمل علوي
قدم سيناتور ولاية كاليفورنيا سكوت وينر يوم الأربعاء تعديلات جديدة إلى آخر فاتورته ، SB 53 ، يتطلب الأمر أكبر شركات الذكاء الاصطناعي في العالم لنشر بروتوكولات السلامة والأمن وإصدار تقارير عند حدوث حوادث السلامة.
إذا وقعت في القانون ، فستكون كاليفورنيا أول ولاية تفرض متطلبات شفافية ذات معنى على قادة مطوري الذكاء الاصطناعي ، على الأرجح بما في ذلك Openai و Google و Anthropic و Xai.
تضمن مشروع قانون الذكاء الاصطناعى السابق للسناتور وينر ، SB 1047 ، متطلبات مماثلة لمطوري النماذج الذكاء لنشر تقارير السلامة. ومع ذلك ، قاتل وادي السيليكون بشدة ضد مشروع القانون ، وقد تعرض عليه الحاكم غافن نيوزوم في نهاية المطاف. بعد ذلك ، دعا حاكم كاليفورنيا إلى مجموعة من قادة الذكاء الاصطناعى-بما في ذلك الباحث الرائد في ستانفورد والمؤسس المشارك لـ World Labs ، Fei-Fei Li-إلى تشكيل مجموعة سياسية وتحديد أهداف لجهود سلامة الذكاء الاصطناعى في الولاية.
نشرت مجموعة سياسات الذكاء الاصطناعى في كاليفورنيا مؤخرًا التوصيات النهائية، مشيرة إلى الحاجة إلى “متطلبات الصناعة لنشر معلومات حول أنظمتها” من أجل إنشاء “بيئة أدلة قوية وشفافة”. وقال مكتب السناتور وينر في بيان صحفي إن تعديلات SB 53 تأثرت بشدة بهذا التقرير.
وقال السناتور فينر في البيان: “لا يزال مشروع القانون هو العمل قيد التقدم ، وأتطلع إلى العمل مع جميع أصحاب المصلحة في الأسابيع المقبلة لتحسين هذا الاقتراح في أكثر قانون علمي وعادل يمكن أن يكون”.
يهدف SB 53 إلى تحقيق توازن ادعى الحاكم Newsom أن SB 1047 فشل في تحقيقه – من الناحية المثالية ، مما يخلق متطلبات شفافية ذات معنى لأكبر مطوري الذكاء الاصطناعي دون إحباط النمو السريع لصناعة الذكاء الاصطناعى في كاليفورنيا.
وقال ناثان كالفين ، نائب رئيس شؤون الدولة لمجموعة سلامة الذكاء الاصطناعى غير الربحية ، في مقابلة مع TechCrunch: “هذه مخاوف من أن منظمتي وغيرها تتحدث عنها لفترة من الوقت”. “إن وجود شركات تشرح للجمهور والحكومة ما هي التدابير التي يتخذها لمعالجة هذه المخاطر ، تبدو وكأنها خطوة الحد الأدنى والمعقولة التي يجب اتخاذها.”
يخلق مشروع القانون أيضًا حماية من المبلغين عن المخالفات لموظفي AI Labs الذين يعتقدون أن تكنولوجيا شركتهم تشكل “خطرًا بالغ الأهمية” للمجتمع – المحددة في مشروع القانون على أنها المساهمة في وفاة أو إصابة أكثر من 100 شخص ، أو أكثر من مليار دولار في أضرار.
بالإضافة إلى ذلك ، يهدف مشروع القانون إلى إنشاء مجموعة حوسبة سحابية عامة لدعم الشركات الناشئة والباحثين الذين يقومون بتطوير الذكاء الاصطناعي على نطاق واسع.
على عكس SB 1047 ، فإن مشروع قانون السناتور وينر الجديد لا يجعل مطوري نماذج الذكاء الاصطناعي مسؤولين عن أضرار نماذج الذكاء الاصطناعى. تم تصميم SB 53 أيضًا بعدم تشكيل عبء على الشركات الناشئة والباحثين الذين يقومون بضبط نماذج الذكاء الاصطناعى من قيادة مطوري الذكاء الاصطناعي ، أو استخدام نماذج مفتوحة المصدر.
مع التعديلات الجديدة ، يتجه الآن SB 53 إلى لجنة جمعية ولاية كاليفورنيا حول الخصوصية وحماية المستهلك للموافقة عليها. في حالة مرور هناك ، سيحتاج مشروع القانون أيضًا إلى المرور عبر العديد من الهيئات التشريعية الأخرى قبل الوصول إلى مكتب الحاكم Newsom.
على الجانب الآخر من الولايات المتحدة ، تدرس حاكم نيويورك كاثي هوشول الآن مشروع قانون سلامة من الذكاء الاصطناعى المماثل ، وهو قانون رفع ، والذي سيتطلب أيضًا من مطوري الذكاء الاصطناعي نشر تقارير السلامة والأمن.
كان مصير قوانين منظمة العفو الدولية مثل قانون الارتفاع و SB 53 في خطر ، حيث اعتبر المشرعون الفيدراليون وقفًا لمدة 10 سنوات من الذكاء الاصطناعي على لائحة منظمة العفو الدولية-محاولة للحد من “الترقيع” من قوانين الذكاء الاصطناعى التي يجب على الشركات التنقل فيها. ومع ذلك ، فشل هذا الاقتراح في تصويت 99-1 في مجلس الشيوخ في وقت سابق من يوليو.
وقال جيف رالستون ، الرئيس السابق لـ Y Combinator ، في بيان لـ TechCrunch: “إن ضمان تطوير الذكاء الاصطناعى بأمان لا ينبغي أن يكون مثيراً للجدل – يجب أن يكون التأسيس”. “يجب أن يكون الكونغرس قيادة ، ويطالب بالشفافية والمساءلة من الشركات التي تقوم ببناء نماذج حدودية. ولكن مع عدم وجود إجراءات اتحادية جدية في الأفق ، يجب أن تصعد الولايات. تعد كاليفورنيا SB 53 مثالًا مدروسًا ومنظمًا جيدًا لقيادة الدولة.”
حتى هذه النقطة ، فشل المشرعون في الحصول على شركات الذكاء الاصطناعى مع متطلبات الشفافية التي تفرضها الدولة. لقد أيد الأنثروبور على نطاق واسع الحاجة إلى زيادة الشفافية إلى شركات الذكاء الاصطناعى، وحتى عبر تفاؤل متواضع بشأن التوصيات من مجموعة سياسات الذكاء الاصطناعى في كاليفورنيا. لكن شركات مثل Openai و Google و Meta كانت أكثر مقاومة لهذه الجهود.
عادة ما ينشر مطورو نموذج الذكاء الاصطناعى تقارير السلامة لنماذج الذكاء الاصطناعى الخاصة بهم ، لكنها كانت أقل اتساقًا في الأشهر الأخيرة. على سبيل المثال ، قررت Google عدم نشر تقرير أمان لنموذج الذكاء الاصطناعى الأكثر تقدماً على الإطلاق ، Gemini 2.5 Pro ، حتى شهور من إتاحته. قررت Openai أيضًا عدم نشر تقرير أمان لنموذج GPT-4.1. في وقت لاحق ، ظهرت دراسة طرف ثالث تشير إلى أنه قد يكون أقل توافقًا من نماذج الذكاء الاصطناعى السابقة.
يمثل SB 53 نسخة من طنانة من فواتير السلامة من الذكاء الاصطناعى ، ولكن لا يزال بإمكانها إجبار شركات الذكاء الاصطناعى على نشر معلومات أكثر مما هي عليه اليوم. في الوقت الحالي ، سوف يراقبون عن كثب بينما يختبر السناتور وينر مرة أخرى تلك الحدود.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي