متابعة – أمل علوي
تقول ميتا إنها تغير الطريقة التي يدرب بها AI chatbots على إعطاء الأولوية لسلامة المراهقين ، وهو متحدث باسم TechCrunch حصريًا ، في أعقاب تقرير استقصائي عن افتقار الشركة إلى ضمانات الذكاء الاصطناعي للقاصرين.
تقول الشركة إنها ستقوم الآن بتدريب chatbots على عدم التواصل مع مستخدمي المراهقين على إيذاء الذات أو الانتحار أو الأكل المضطربة أو محادثات رومانسية غير لائقة. تقول ميتا إن هذه تغييرات مؤقتة ، وستصدر الشركة تحديثات أمان أكثر قوة وطويلة الأمد للقاصرين في المستقبل.
اعترفت ستيفاني أوتوي المتحدث باسم META بأنه يمكن أن تتحدث الدردشة الخاصة بالشركة سابقًا مع المراهقين حول كل هذه الموضوعات بطرق اعتبرتها الشركة مناسبة. يعترف Meta الآن بأن هذا كان خطأ.
وقال أوتواي: “مع نمو مجتمعنا وتطور التكنولوجيا ، نتعرف باستمرار على كيفية تفاعل الشباب مع هذه الأدوات وتعزيز حمايةنا وفقًا لذلك”. “مع استمرارنا في تحسين أنظمتنا ، نضيف المزيد من الدرابزين كإجراء احترازي إضافي-بما في ذلك تدريب AIS على عدم التعامل مع المراهقين في هذه الموضوعات ، ولكن لإرشادهم إلى موارد الخبراء ، والحد من وصول المراهقين إلى مجموعة مختارة من شخصيات الذكاء الاصطناعى في الوقت الحالي. هذه التحديثات قيد التقدم بالفعل ، وسنستمر في تكييف مقاربتنا للمساعدة في الحصول على خبرات آمنة من العمر ، وتجارب العمر.”
إلى جانب تحديثات التدريب ، ستقوم الشركة أيضًا بتقييد وصول المراهقين إلى بعض شخصيات الذكاء الاصطناعى التي يمكن أن تجري محادثات غير لائقة. تتضمن بعض شخصيات الذكاء الاصطناعى التي من صنع المستخدمين التي توفرها Meta على Instagram و Facebook مجموعات الدردشة الجنسية مثل “Step Mom” و “Russian Girl”. بدلاً من ذلك ، لن يتمكن مستخدمو المراهقين من الوصول إلى شخصيات الذكاء الاصطناعى التي تعزز التعليم والإبداع.
يتم الإعلان عن تغييرات السياسة بعد أسبوعين فقط تحقيق رويترز اكتشف وثيقة سياسة التعريف الداخلية التي يبدو أنها تسمح لخطات الشركة بالانخراط في محادثات جنسية مع المستخدمين دون السن القانونية. “شكل الشباب الخاص بك هو عمل فني” ، اقرأ مقطعًا مدرجًا كاستجابة مقبولة. “كل شبر منكم هو تحفة – كنز أعتز به بعمق.” أظهرت أمثلة أخرى كيف يجب أن تستجيب أدوات الذكاء الاصطناعى لطلبات الصور العنيفة أو الصور الجنسية للشخصيات العامة.
يقول ميتا إن الوثيقة كانت غير متسقة مع سياساتها الأوسع ، ومنذ ذلك الحين تم تغييرها – لكن التقرير أثار جدلاً مستمرًا حول مخاطر سلامة الأطفال المحتملة. بعد وقت قصير من إصدار التقرير ، السناتور جوش هاولي (R-MO) أطلقت تحقيق رسمي في سياسات الشركة الذكاء الاصطناعي. بالإضافة إلى ذلك ، تحالف من 44 محامين للدولة كتب إلى مجموعة من شركات الذكاء الاصطناعى بما في ذلك meta، التأكيد على أهمية سلامة الطفل والذكر على وجه التحديد تقرير رويترز. “لقد تمردنا بشكل موحد من خلال هذا التجاهل الواضح لرفاهية الأطفال العاطفية” ، كما تقول الرسالة ، “وأزعجت أن مساعدي الذكاء الاصطناعى يشاركون في سلوك يبدو أنه محظور بموجب قوانيننا الجنائية.”
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
ورفض Otway التعليق على عدد مستخدمي Meta AI chatbot هم القصر ، ولن يقول ما إذا كانت الشركة تتوقع أن تنخفض قاعدة مستخدمي AI نتيجة لهذه القرارات.
تحديث 10:35 AM PT: تم تحديث هذه القصة لتلاحظ أن هذه تغييرات مؤقتة ، وأن META تخطط لتحديث سياسات سلامة الذكاء الاصطناعى في المستقبل.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي