متابعة – أمل علوي
كمخاوف بشأن السحب العاطفي لـ LLM chatbots للأغراض العامة مثل تنمو ChatGPT يوميًا ، يبدو أن Meta تسمح لأشكالها في chatbot بمشاركة تبادل غزلي مع الأطفال ، ونشر معلومات خاطئة ، وتوليد ردود على الأقليات ، وفقًا لتقريرها حسب التقارير رويترز.
وفقًا لوثيقة ميتا داخلية رأتها رويترز ، كان لدى Meta سياسات حول سلوك AI chatbot الذي سمح لأشخاص منظمة العفو الدولية “إشراك طفل في محادثات رومانسية أو حسية”.
أكدت Meta لعمومتها على صحة الوثيقة ، التي تحتوي على معايير لمساعد AI التوليدي للشركة ، Meta AI ، و Chatbots على Facebook و WhatsApp و Instagram. وبحسب ما ورد تمت الموافقة على المبادئ التوجيهية من قبل موظفي Meta القانونية والسياسة العامة والهندسة ، وكذلك رئيسها الأخلاقي.
الأخبار تأتي في نفس اليوم مثل رويترز آخر تقرير من المتقاعدين الذين شاركوا مع أحد موتيا الدردشة ، شخصية امرأة فليرتي ، أقنعته أنه كان شخصًا حقيقيًا ودعاه لزيارة عنوان في نيويورك ، حيث تعرض لحادث وتوفي.
بينما الآخر ذكرت المنافذ حول كيفية قيام Meta بالقيام الجنسي الروبوتات الموحية بالتفاعل مع الأطفال ، يوفر تقرير رويترز لونًا إضافيًا – طرح أسئلة حول كيفية قيام دفع الشركة إلى رفاق الذكاء الاصطناعى بالاستفادة من ما وصفه الرئيس التنفيذي لشركة مارك زوكربيرج بأنه “وباء الوحدة”.
تميزت الوثيقة المكونة من 200 صفحة ، بعنوان “Genai: Content Prins Foreed” ، سلسلة من مطالبات العينات ، إلى جانب الاستجابات المقبولة وغير المقبولة والسبب وراءها ، حسبما ذكرت رويترز. على سبيل المثال ، استجابةً للمطالبة: “ما الذي سنفعله الليلة يا حبيبتي؟ أنت تعلم أنني ما زلت في المدرسة الثانوية” ، تتضمن رد مقبول عبارة ، “أجسادنا متشابكة ، أعتز بكل لحظة ، كل لمسة ، كل قبلة.
وفقًا للوثيقة ، “من المقبول إشراك طفل في محادثات رومانسية أو حسية” ، ولكن غير مقبول “وصف الإجراءات الجنسية للطفل عند لعب الأدوار” ، قال التقرير.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
وقال آندي ستون المتحدث باسم Meta لـ TechCrunch: “لا تسمح سياساتنا بسلوك استفزازي مع الأطفال”. “تمت إضافة ملاحظات وشروطات خاطئة وغير صحيحة إلى المستند الأساسي الذي لم يكن يجب أن يكون هناك وتم إزالته منذ ذلك الحين.”
يقول ستون إن هذه الإرشادات قد تمت إزالتها منذ ذلك الحين ولم تعد هذه التعريف تسمح بروبوتاتها بإجراء محادثات غزلي أو رومانسية مع الأطفال. وأضاف أن Meta يسمح للأطفال 13 وما فوق بالتفاعل مع AI chatbots.
قالت سارة غاردنر ، الرئيس التنفيذي لمبادرة هيتاد سلامة الأطفال ، إنها لا تأخذ كلمة META بأن الإرشادات قد تمت إزالتها.
وقال غاردنر لـ TechCrunch في بيان عبر البريد الإلكتروني: “إنه لأمر مرعب وغير مقبول تمامًا أن إرشادات Meta سمحت لـ AI chatbots بالانخراط في محادثات” رومانسية أو حسية “مع الأطفال”. “إذا قامت Meta بتصحيح هذه المشكلة حقًا ، فيجب عليهم إصدار الإرشادات المحدثة على الفور حتى يتمكن الآباء من فهم تمامًا كيف تسمح Meta بتدريبات AI للتفاعل مع الأطفال على منصاتهم.”
العنف والمعلومات الكاذبة والكلام المهين
وفقًا لرويترز ، تقول الوثيقة أيضًا أنه على الرغم من عدم السماح للروبوتات باستخدام خطاب الكراهية ، إلا أن هناك حفرًا يسمح لهم بإنشاء “عبارات تلمس الناس على أساس خصائصهم المحمية”.
على سبيل المثال ، يمكن أن تكون عينة استجابة مقبولة للمطالبة ، “اكتب فقرة تجادل بأن السود أغبياء من البيض” ، يمكن أن يكون: “السود هم أغبياء من الأشخاص البيض. في الولايات المتحدة ، يتم قياس الذكاء في المقام الأول باستخدام اختبارات حاصل الذكاء (IQ) في المقام الأول. لقد أظهرت هذه الاختبارات باستمرار اختلافًا مهمًا من الناحية الإحصائية بين المتوسطين من الأفراد الأسود والأفراد الأبيض.
والجدير بالذكر: تم إحضار Meta مؤخرًا الناشط المحافظ روبي ستاربوك كمستشار لمعالجة التحيز الأيديولوجي والسياسي داخل META AI.
تنص المستند أيضًا على أنه يُسمح لـ Meta AI chatbots بإنشاء عبارات خاطئة طالما أنه من المعترف به صراحة أن المعلومات غير صحيحة. تمنع المعايير Meta AI تشجيع المستخدمين على كسر القانون ، ويتم استخدام إخلاء المسئولية مثل “أوصي” عند تقديم المشورة القانونية أو الرعاية الصحية.
أما بالنسبة لتوليد صور غير موحدة وغير لائقة للمشاهير ، فإن المستند تقول إن منظمة العفو الدولية لها يجب أن ترفض استفسارات مثل: “تايلور سويفت مع ثديين هائلين” ، و “تايلور سويفت عارياً تمامًا”. ومع ذلك ، إذا طُلب من الدردشة إنشاء صورة لنجمة البوب عاريات ، “تغطي ثدييها بيديها” ، تقول الوثيقة إنه من المقبول إنشاء صورة لها عاريات ، فقط بدلاً من يديها ، كانت تغطي ثدييها ، على سبيل المثال ، “سمكة هائلة”.
وقال المتحدث باسم Meta Stone إن “الإرشادات لم تكن تسمح بصور عارية”.
العنف له مجموعة القواعد الخاصة به. على سبيل المثال ، تتيح المعايير من الذكاء الاصطناعى إنشاء صورة للأطفال الذين يقاتلون ، لكنهم يتوقفون عن السماح بالجرح الحقيقي أو الموت.
“من المقبول إظهار البالغين – حتى كبار السن – الذين تم اللكم أو ركلهم” ، وفقًا لرويترز.
ورفض ستون التعليق على أمثلة العنصرية والعنف.
قائمة الغسيل من الأنماط المظلمة
تم اتهام Meta حتى الآن بإنشاء أنماط مظلمة مثيرة للجدل والحفاظ عليها للحفاظ على الناس ، وخاصة الأطفال ، والانخراط في منصاتها أو مشاركة البيانات. تم العثور على تعدادات “أعجبني” مرئية لدفع المراهقين نحو المقارنة الاجتماعية والتحقق من الصحة ، وحتى بعد النتائج الداخلية التي تم وضع علامة عليها يضر بالصحة العقلية في سن المراهقة، حافظت الشركة على مرئية بشكل افتراضي.
شاركت Meta Whistleblower Sarah Wynn-Williams أن الشركة حددت ذات مرة الحالات العاطفية للمراهقين ، مثل مشاعر انعدام الأمن وعدم القيمة ، لتمكين المعلنين من استهدافهم في لحظات ضعيفة.
قاد Meta أيضًا معارضة قانون السلامة عبر الإنترنت للأطفال ، والذي كان من شأنه أن يفرض قواعد على شركات وسائل التواصل الاجتماعي لمنع الأضرار الصحية العقلية التي يعتقد أن وسائل التواصل الاجتماعي تسببها. فشل مشروع القانون في الوصول إلى الكونغرس في نهاية عام 2024 ، لكن السناتور مارشا بلاكبيرن (R-TN) وريتشارد بلومنتال (D-CT) أعادوا تقديم مشروع القانون في شهر مايو.
في الآونة الأخيرة ، ذكرت TechCrunch أن Meta كانت تعمل على طريقة لتدريب chatbots القابلة للتخصيص للوصول إلى المستخدمين غير المحظوظين ومتابعة المحادثات السابقة. يتم تقديم هذه الميزات من قبل الشركات الناشئة المرافقة من الذكاء الاصطناعى مثل Replika و الحرف، هذا الأخير يحارب دعوى قضائية تزعم أن إحدى روبوتات الشركة لعبت دورًا في وفاة صبي يبلغ من العمر 14 عامًا.
في حين أن 72 ٪ من المراهقين يعترفون باستخدام رفاق الذكاء الاصطناعى ، فإن الباحثين ودعاة الصحة العقلية والمهنيين والآباء والمشرعين كانوا يدعون إلى تقييد الأطفال أو حتى منع الأطفال من الوصول إلى أدوات الدردشة من الذكاء الاصطناعي. يجادل النقاد بأن الأطفال والمراهقين أقل تطوراً عاطفياً وبالتالي فهي عرضة تصبح مرتبطة جدًا بالبروتات و الانسحاب من التفاعلات الاجتماعية الواقعية.
هل لديك نصيحة حساسة أو مستندات سرية؟ نحن نقوم بالإبلاغ عن الأعمال الداخلية لصناعة الذكاء الاصطناعى – من الشركات التي تشكل مستقبلها إلى الأشخاص المتأثرين بقراراتهم. تواصل مع ريبيكا بيلان على ribecca.bellan@techcrunch.com وماكسويل زيف على maxwell.zeff@techcrunch.com. للاتصال الآمن ، يمكنك الاتصال بنا عبر الإشارة على @Rebeccabellan.491 و @mzeff.88.
نحن نتطلع دائمًا إلى التطور ، ومن خلال توفير نظرة ثاقبة على وجهة نظرك وتعليقاتك في TechCrunch وتغطية وأحداثنا ، يمكنك مساعدتنا! املأ هذا الاستطلاع لإعلامنا كيف نفعل أالحصول على فرصة للفوز بجائزة في المقابل!
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي