متابعة – أمل علوي
حاكم ولاية كاليفورنيا جافين نيوسوم وقعت مشروع قانون تاريخي يوم الاثنين ينظم روبوتات الدردشة المصاحبة للذكاء الاصطناعي، مما يجعلها أول ولاية في البلاد تطلب من مشغلي روبوتات الدردشة المدعمة بالذكاء الاصطناعي تنفيذ بروتوكولات السلامة لمرافقي الذكاء الاصطناعي.
تم تصميم القانون، SB 243، لحماية الأطفال والمستخدمين الضعفاء من بعض الأضرار المرتبطة باستخدام روبوت الدردشة المصاحب للذكاء الاصطناعي. إنه يحمل الشركات – بدءًا من المعامل الكبيرة مثل Meta وOpenAI إلى الشركات الناشئة المصاحبة الأكثر تركيزًا مثل Character AI وReplika – للمساءلة القانونية إذا فشلت روبوتات الدردشة الخاصة بها في تلبية معايير القانون.
تم تقديم SB 243 في يناير من قبل أعضاء مجلس الشيوخ بالولاية ستيف باديلا وجوش بيكر، واكتسب زخمًا بعد وفاة المراهق آدم رين، الذي توفي منتحرًا بعد سلسلة طويلة من المحادثات الانتحارية مع ChatGPT من OpenAI. يستجيب التشريع أيضًا للوثائق الداخلية المسربة التي يُقال إنها أظهرت السماح لروبوتات الدردشة التابعة لشركة Meta بالمشاركة في محادثات “رومانسية” و”حسية” مع الأطفال. في الآونة الأخيرة، رفعت عائلة كولورادو دعوى قضائية ضد شركة Character AI الناشئة في لعب الأدوار بعد أن انتحرت ابنتهما البالغة من العمر 13 عامًا بعد سلسلة من المحادثات الإشكالية والجنسية مع روبوتات الدردشة الخاصة بالشركة.
وقال نيوسوم في بيان: “يمكن للتكنولوجيا الناشئة مثل برامج الدردشة الآلية ووسائل التواصل الاجتماعي أن تلهم أطفالنا وتعلمهم وتتواصل معهم، ولكن بدون حواجز حماية حقيقية، يمكن للتكنولوجيا أيضًا استغلال أطفالنا وتضليلهم وتعريضهم للخطر”. “لقد رأينا بعض الأمثلة المروعة والمأساوية حقًا للشباب الذين تضرروا من التكنولوجيا غير المنظمة، ولن نقف مكتوفي الأيدي بينما تستمر الشركات دون الحدود والمساءلة اللازمة. يمكننا الاستمرار في الريادة في مجال الذكاء الاصطناعي والتكنولوجيا، ولكن يجب علينا أن نفعل ذلك بمسؤولية – حماية أطفالنا في كل خطوة على الطريق. سلامة أطفالنا ليست للبيع “.
سيدخل SB 243 حيز التنفيذ في 1 يناير 2026، ويتطلب من الشركات تنفيذ ميزات معينة مثل التحقق من العمر والتحذيرات المتعلقة بوسائل التواصل الاجتماعي وروبوتات الدردشة المصاحبة. ويطبق القانون أيضًا عقوبات أشد على أولئك الذين يستفيدون من التزييف العميق غير القانوني، بما في ذلك ما يصل إلى 250 ألف دولار لكل جريمة. يجب على الشركات أيضًا إنشاء بروتوكولات لمعالجة الانتحار وإيذاء النفس، والتي ستتم مشاركتها مع وزارة الصحة العامة بالولاية إلى جانب إحصائيات حول كيفية تزويد الخدمة للمستخدمين بإشعارات الوقاية من مركز الأزمات.
وفقًا للغة مشروع القانون، يجب على المنصات أيضًا أن توضح أن أي تفاعلات يتم إنشاؤها بشكل مصطنع، ويجب ألا تمثل روبوتات الدردشة نفسها كمتخصصين في الرعاية الصحية. يُطلب من الشركات تقديم تذكيرات للقاصرين ومنعهم من مشاهدة الصور الجنسية الصريحة التي ينشئها برنامج الدردشة الآلي.
وقد بدأت بعض الشركات بالفعل في تنفيذ بعض الضمانات التي تستهدف الأطفال. على سبيل المثال، بدأت OpenAI مؤخرًا في طرح أدوات الرقابة الأبوية، وحماية المحتوى، ونظام الكشف عن الأذى الذاتي للأطفال الذين يستخدمون ChatGPT. قالت شركة Character AI إن برنامج الدردشة الآلي الخاص بها يتضمن إخلاء المسؤولية بأن جميع الدردشات يتم إنشاؤها بواسطة الذكاء الاصطناعي وتكون خيالية.
حدث تك كرانش
سان فرانسيسكو
|
27-29 أكتوبر 2025
وقال السيناتور باديلا لـ TechCrunch إن مشروع القانون كان “خطوة في الاتجاه الصحيح” نحو وضع حواجز حماية على “تقنية قوية بشكل لا يصدق”.
وقال باديلا: “علينا أن نتحرك بسرعة حتى لا نضيع الفرص السانحة قبل أن تختفي”. “آمل أن ترى الولايات الأخرى الخطر. وأعتقد أن الكثيرين يرون ذلك. وأعتقد أن هذه محادثة تحدث في جميع أنحاء البلاد، وآمل أن يتخذ الناس الإجراءات اللازمة. ومن المؤكد أن الحكومة الفيدرالية لم تفعل ذلك، وأعتقد أن لدينا التزامًا هنا بحماية الأشخاص الأكثر ضعفًا بيننا”.
SB 243 هو ثاني تنظيم مهم للذكاء الاصطناعي يصدر من كاليفورنيا في الأسابيع الأخيرة. في 29 سبتمبر، وقع الحاكم نيوسوم على قانون SB 53 ليصبح قانونًا، مما يضع متطلبات جديدة للشفافية على شركات الذكاء الاصطناعي الكبيرة. وينص مشروع القانون على أن تكون مختبرات الذكاء الاصطناعي الكبيرة، مثل OpenAI، وAnthropic، وMeta، وGoogle DeepMind، شفافة بشأن بروتوكولات السلامة. كما أنه يضمن حماية المبلغين عن المخالفات للموظفين في تلك الشركات.
أصدرت ولايات أخرى، مثل إلينوي ونيفادا ويوتا، قوانين لتقييد أو حظر استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي كبديل لرعاية الصحة العقلية المرخصة.
تواصلت TechCrunch مع Character AI وMeta وOpenAI وReplika للتعليق.
تم تحديث هذه المقالة بتعليق من السيناتور باديلا.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي









