متابعة – أمل علوي
يوم الاثنين ، الإنسان أعلن تأييد رسمي لـ SB 53 ، وهو مشروع قانون في كاليفورنيا من السناتور Scott Wiener الذي من شأنه أن يفرض متطلبات الشفافية الأولى في العالم على أكبر مطوري نماذج الذكاء الاصطناعي في العالم. يمثل تأييد الأنثروبور فوزًا نادرًا وكبيرًا لـ SB 53 ، في وقت كانت فيه مجموعات التكنولوجيا الكبرى مثل جمعية تكنولوجيا المستهلك (CTA) و غرفة للتقدم يضغطون ضد مشروع القانون.
“بينما نعتقد أن سلامة FRONTIER AI أفضل معالجة على المستوى الفيدرالي بدلاً من مجموعة من لوائح الدولة ، فإن تقدم الذكاء الاصطناعى القوي لن تنتظر الإجماع في واشنطن” ، قال الأنثروبور في منشور مدونة. “السؤال ليس ما إذا كنا نحتاج إلى حوكمة الذكاء الاصطناعي – إنه ما إذا كنا سنطورها بعناية اليوم أو غدًا بشكل تفاعلي. يقدم SB 53 طريقًا قويًا نحو السابق.”
إذا مرت ، SB 53 سيتطلب مطورو نموذج AI الحدودي مثل Openai و Anthropic و Google و Xai لتطوير أطر السلامة ، بالإضافة إلى إصدار تقارير السلامة والأمن العام قبل نشر نماذج AI قوية. سيؤدي مشروع القانون أيضًا إلى إنشاء حماية للمبلغين عن المبلغين عن الموظفين الذين يتقدمون مع مخاوف تتعلق بالسلامة.
يركز مشروع قانون السناتور وينر على وجه التحديد على الحد من نماذج الذكاء الاصطناعى من المساهمة في “المخاطر الكارثية” ، والتي يعرفها مشروع القانون بأنه وفاة ما لا يقل عن 50 شخصًا أو أكثر من مليار دولار. يركز SB 53 على الجانب المتطرف من مخاطر الذكاء الاصطناعي-الحد من استخدام نماذج الذكاء الاصطناعي لتوفير مساعدة على مستوى الخبراء في إنشاء أسلحة بيولوجية أو استخدامها في الهجمات الإلكترونية-بدلاً من المخاوف القريبة من المدى القريب مثل AI Deepfakes أو sycophancy.
وافق مجلس الشيوخ في كاليفورنيا على نسخة مسبقة من SB 53 لكنه لا يزال بحاجة إلى إجراء تصويت نهائي على مشروع القانون قبل أن يتمكن من التقدم إلى مكتب الحاكم. ظل الحاكم غافن نيوزوم صامتًا على مشروع القانون حتى الآن ، على الرغم من أنه حقق حق النقض ضد مشروع قانون السلامة من الذكاء الاصطناعي للسناتور وينر ، SB 1047.
واجهت مشاريع القوانين التي تنظم طرازات النماذج من الذكاء الاصطناعى الحدودي تراجعًا كبيرًا من كل من وادي السيليكون وإدارة ترامب ، والتي يجادل كلاهما بأن مثل هذه الجهود يمكن أن تحد من ابتكار أمريكا في السباق ضد الصين. قاد المستثمرون مثل Andreessen Horowitz و Y Combinator بعضًا من رد الفعل ضد SB 1047 ، وفي الأشهر الأخيرة ، هددت إدارة ترامب مرارًا وتكرارًا بمنع الدول من تمرير تنظيم الذكاء الاصطناعي تمامًا.
واحدة من أكثر الحجج شيوعًا ضد مشاريع قوانين سلامة الذكاء الاصطناعى هي أن الدول يجب أن تترك المسألة للحكومات الفيدرالية. نشر رئيس أندريسن هورويتز لسياسة الذكاء الاصطناعى ، مات بيرولت ، وكبير المسؤولين القانونيين ، جاي راماسوامي ، أ منشور المدونة في الأسبوع الماضي ، يجادل العديد من مشاريع القوانين من الذكاء الاصطناعي اليوم بانتهاك بند التجارة في الدستور – الذي يحد من حكومات الولايات من تمرير القوانين التي تتجاوز حدودها وتضعف التجارة بين الولايات.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
ومع ذلك ، يجادل جاك كلارك المؤسس المشارك في الإنسان في أ بعد على x أن صناعة التكنولوجيا ستبني أنظمة AI قوية في السنوات القادمة ولا يمكنها الانتظار حتى تتصرف الحكومة الفيدرالية.
قال كلارك: “لقد قلنا منذ فترة طويلة أننا نفضل الحصول على معيار اتحادي”. “لكن في غياب ذلك يخلق مخططًا صلبًا لحوكمة الذكاء الاصطناعي لا يمكن تجاهله”.
أرسل كبير مسؤولي الشؤون العالمية في Openai ، كريس ليهان ، خطاب إلى الحاكم Newsom في أغسطس / آب ، يجادل بأنه لا ينبغي أن يمرر أي لائحة منظمة العفو الدولية التي من شأنها أن تدفع الشركات الناشئة من كاليفورنيا – على الرغم من أن الرسالة لم تذكر SB 53 بالاسم.
وقال رئيس أبحاث السياسة السابق في Openai ، مايلز بروندج ، في أ بريد على X كانت رسالة Lehane “مليئة بالقمامة المضللة حول SB 53 وسياسة الذكاء الاصطناعي بشكل عام.” والجدير بالذكر أن SB 53 تهدف إلى تنظيم أكبر شركات الذكاء الاصطناعي في العالم – خاصة تلك التي حققت إيرادات إجمالية تزيد عن 500 مليون دولار.
على الرغم من الانتقادات ، يقول خبراء السياسة إن SB 53 هو نهج أكثر تواضعًا من فواتير سلامة الذكاء الاصطناعي السابقة. قال دين بول ، وهو زميل أقدم في مؤسسة الابتكار الأمريكي ومستشار سياسة البيت الأبيض السابق ، في أغسطس منشور المدونة أنه يعتقد أن SB 53 لديه فرصة جيدة الآن ليصبح قانونًا. قال بول ، الذي انتقد SB 1047 ، إن واضعي SB 53 “أظهروا احتراماً للواقع التقني” ، وكذلك “مقياس التقييد التشريعي”.
قال السناتور وينر سابقًا إن SB 53 تأثرت بشدة بحاكم لجنة سياسة الخبراء التي عقدها Newsom-بقيادة باحث في ستانفورد والمؤسس المشارك لـ World Labs ، Fei-Fei Li-لتقديم المشورة إلى كاليفورنيا حول كيفية تنظيم الذكاء الاصطناعي.
تحتوي معظم مختبرات الذكاء الاصطناعى بالفعل على نسخة من سياسة السلامة الداخلية التي تتطلبها SB 53. تنشر Openai و Google Deepmind و Anthropic بانتظام تقارير السلامة لنماذجها. ومع ذلك ، فإن هذه الشركات ليست ملزمة من قبل أي شخص سوى أنفسهم ، لذلك في بعض الأحيان تتخلف عن التزامات السلامة التي فرضها على الذات. يهدف SB 53 إلى تحديد هذه المتطلبات كقانون الولاية ، مع تداعيات مالية إذا فشل مختبر AI في الامتثال.
في وقت سابق من سبتمبر ، المشرعين في كاليفورنيا معدّل SB 53 لإزالة قسم من الفاتورة التي كان من شأنه أن يتطلب مراجعة مطوري طراز الذكاء الاصطناعي من قبل أطراف ثالثة. سبق أن قاتلت شركات التكنولوجيا هذه الأنواع من عمليات تدقيق الطرف الثالث في معارك سياسة الذكاء الاصطناعي الأخرى ، بحجة أنها مرهقة للغاية.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي