Elon Musk on stage at CPAC in Maryland with sunglasses on and a MAGA hat
تقرأ “الخطة الرئيسية” الرابعة لـ Tesla مثل الهراء الذي تم إنشاؤه بواسطة LLM
الثلاثاء - 2 سبتمبر - 2025
waymo-zeekr ces 2025
يتوسع Waymo إلى دنفر وسياتل مع شاحنات Zeekr-Made
الثلاثاء - 2 سبتمبر - 2025

متابعة – أمل علوي

تم تحديث هذا المقال بتعليق من المحامي الرئيسي في دعوى الوفاة غير المشروعة لعائلة رين ضد Openai.

Openai قال الثلاثاء تخطط لتوجيه المحادثات الحساسة إلى نماذج التفكير مثل GPT-5 وطرح الضوابط الوالدية خلال الشهر المقبل-جزء من استجابة مستمرة لحوادث السلامة الأخيرة التي تنطوي على فشل ChatGPT في اكتشاف الضيق العقلي.

تأتي الدرابزين الجديدة في أعقاب انتحار المراهق آدم راين ، الذي ناقش إيذاء الذات ويعتزم إنهاء حياته مع Chatgpt ، والتي زودته حتى بمعلومات حول أساليب الانتحار المحددة. رفع والدا رين دعوى الموت غير المشروعة ضد أوبياي.

في منشور المدونة في الأسبوع الماضي ، اعترف Openai بأوجه القصور في أنظمة السلامة الخاصة بها ، بما في ذلك الإخفاقات في الحفاظ على الدرابزين خلال المحادثات الممتدة. يعزو الخبراء هذه المشكلات إلى عناصر التصميم الأساسية: ميل النماذج إلى التحقق من صحة بيانات المستخدم وخوارزميات التنبؤ بكلمة التالية ، والتي تتسبب في اتباع روابط المحادثات بدلاً من إعادة توجيه المناقشات الضارة.

يتم عرض هذا الاتجاه في أقصى الحدود في حالة شتاين-إيريك سويلبرغ ، الذي تم الإبلاغ عن انتحار القتل الذي تم الإبلاغ عنه مجلة وول ستريت خلال عطلة نهاية الأسبوع. استخدم Soelberg ، الذي كان لديه تاريخ من المرض العقلي ، ChatGPT للتحقق من صحة وتهدئة جنون العظمة الذي كان يستهدفه في مؤامرة كبيرة. تقدمت أوهامه بشكل سيء لدرجة أنه انتهى به الأمر إلى قتل والدته ونفسه الشهر الماضي.

يعتقد Openai أن حلًا واحدًا على الأقل للمحادثات التي تنطلق من القضبان يمكن أن يكون لإعادة تلقائي محادثات حساسة إلى نماذج “التفكير”.

وكتب Openai في يوم الثلاثاء: “لقد قدمنا ​​مؤخرًا جهاز توجيه في الوقت الفعلي يمكنه الاختيار بين نماذج الدردشة الفعالة ونماذج التفكير بناءً على سياق المحادثة”. منشور المدونة. “سنبدأ قريبًا في توجيه بعض المحادثات الحساسة-مثل عندما يكتشف نظامنا علامات على الضيق الحاد-إلى نموذج التفكير ، مثل التفكير في GPT-5 ، بحيث يمكن أن يوفر استجابات مفيدة ومفيدة ، بغض النظر عن النموذج الذي تم اختياره لأول مرة.”

يقول Openai إن تفكير GPT-5 ونماذج O3 مصممة لقضاء المزيد من الوقت في التفكير لفترة أطول والمنطق من خلال السياق قبل الإجابة ، مما يعني أنها “أكثر مقاومة لمطالب العدائية”.

وقالت شركة الذكاء الاصطناعى أيضًا إنها ستطرح عناصر تحكم الوالدين في الشهر المقبل ، مما يسمح للآباء بربط حسابهم بحساب المراهقين من خلال دعوة البريد الإلكتروني. في أواخر يوليو ، طرح Openai وضع الدراسة في ChatGPT لمساعدة الطلاب على الحفاظ على قدرات التفكير الناقد أثناء الدراسة ، بدلاً من الاستفادة من ChatGPT لكتابة مقالاتهم لهم. قريباً ، سيتمكن الآباء من التحكم في كيفية استجابة ChatGpt لطفلهم مع “قواعد سلوك النماذج المناسبة للعمر ، والتي يتم عرضها افتراضيًا”.

سيتمكن الآباء أيضًا من تعطيل ميزات مثل الذاكرة وتاريخ الدردشة ، والتي يقول الخبراء يمكن أن تؤدي إلى التفكير الوهمي وغيرها من السلوك الإشكالي ، بما في ذلك قضايا التبعية والتعلق ، وتعزيز أنماط التفكير الضارة ، ووهم قراءة الفكر. في حالة آدم رين ، قدمت Chatgpt طرقًا للانتحار التي تعكس معرفة هواياته ، لكل صحيفة نيويورك تايمز.

ولعل أهم التحكم في الوالدين الذي يعتزم Openai أن يطرحه هو أن الآباء يمكنهم تلقي الإخطارات عندما يكتشف النظام أن المراهق هو في لحظة “ضائقة حادة”.

طلبت TechCrunch Openai المزيد من المعلومات حول كيفية قدرة الشركة على الإبلاغ عن لحظات من الضيق الحاد في الوقت الفعلي ، والمدة التي قضاها “قواعد سلوك النموذج المناسبة للعمر” بشكل افتراضي ، وما إذا كانت تستكشف السماح للآباء بتنفيذ حد زمني للاستخدام المراهق لـ ChatGPT.

قامت Openai بالفعل بتخليص تذكيرات في التطبيق خلال جلسات طويلة لتشجيع الفواصل على جميع المستخدمين ، لكنها لا تقصر عن قطع الأشخاص الذين قد يستخدمون chatgpt في دوامة.

تقول شركة الذكاء الاصطناعى إن هذه الضمانات هي جزء من “مبادرة مدتها 120 يومًا” لمعاينة خطط التحسينات التي تأمل Openai في إطلاقها هذا العام. وقالت الشركة أيضًا إنها تتعاون مع الخبراء-بما في ذلك تلك التي لديها خبرة في مجالات مثل اضطرابات الأكل ، وتعاطي المخدرات ، وصحة المراهقين-من خلال شبكة الأطباء العالمية ومجلس الخبراء حول الرفاهية ومنظمة العفو الدولية للمساعدة في “تحديد وقياس الرفاه ، وتصميم أولويات وتصميم ضمانات مستقبلية”.

سألت TechCrunch Openai عن عدد متخصصي الصحة العقلية التي يشارك في هذه المبادرة ، التي تقود مجلس الخبراء ، وما هي الاقتراحات التي قدمها خبراء الصحة العقلية من حيث قرارات المنتج والبحث والسياسة.

وقال جاي إيدلسون ، المحامي الرئيسي في دعوى الوفاة غير المشروعة لعائلة رين ضد Openai ، إن استجابة الشركة لمخاطر السلامة المستمرة في Chatgpt كانت “غير كافية”.

وقال إيدلسون في بيان مشترك مع TechCrunch: “لا يحتاج Openai إلى لوحة خبراء لتحديد أن ChatGpt 4O خطير”. “لقد عرفوا أن اليوم الذي أطلقوا فيه المنتج ، وهم يعرفونه اليوم. ولا ينبغي أن يختبئ سام ألمان خلف فريق العلاقات العامة للشركة. يجب على سام إما أن يقول بشكل لا لبس فيه أنه يعتقد أن تشاتغبت آمن أو يسحبه على الفور من السوق.”

هل لديك نصيحة حساسة أو مستندات سرية؟ نحن نقوم بالإبلاغ عن الأعمال الداخلية لصناعة الذكاء الاصطناعى – من الشركات التي تشكل مستقبلها إلى الأشخاص المتأثرين بقراراتهم. تواصل مع ريبيكا بيلان على ribecca.bellan@techcrunch.com وماكسويل زيف على maxwell.zeff@techcrunch.com. للاتصال الآمن ، يمكنك الاتصال بنا عبر الإشارة على @Rebeccabellan.491 و @mzeff.88.


هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة