In this photo illustration, the logo of Apple Inc. is displayed on a smartphone screen, with the company's iconic black apple symbol visible in the background.
iPhone 17 ، “أنحف iPhone على الإطلاق” ، وكل شيء آخر نتوقعه من حدث أجهزة Apple
الجمعة - 22 أغسطس - 2025
يتيح Instagram الآن للمبدعين ربط بكرات متعددة في سلسلة
يتيح Instagram الآن للمبدعين ربط بكرات متعددة في سلسلة
الجمعة - 22 أغسطس - 2025

متابعة – أمل علوي

يمكن أن تستجيب نماذج الذكاء الاصطناعي للنصوص والصوت والفيديو بطرق تخدع الناس أحيانًا في التفكير في إنسان وراء لوحة المفاتيح ، لكن هذا لا يجعلهم يدركون تمامًا. ليس مثل chatgpt يختبر الحزن القيام بالإقرار الضريبي … أليس كذلك؟

حسنًا ، يسأل عدد متزايد من باحثو الذكاء الاصطناعى في المختبرات مثل الأنثروبور عن متى – إن وجدت – قد تطور نماذج الذكاء الاصطناعى تجارب ذاتية مماثلة للكائنات الحية ، وإذا فعلوا ذلك ، فما هي الحقوق التي يجب أن تتمتع بها.

إن النقاش حول ما إذا كان يمكن أن يكون نماذج الذكاء الاصطناعى ذات يوم وعيًا – وتستحق الضمانات القانونية – تقسيم قادة التكنولوجيا. في وادي السيليكون ، أصبح هذا الحقل الناشئ معروفًا باسم “رفاهية الذكاء الاصطناعي” ، وإذا كنت تعتقد أنه قليل هناك ، فأنت لست وحدك.

نشر الرئيس التنفيذي لشركة Microsoft AI ، مصطفى سليمان ، أ منشور المدونة يوم الثلاثاء ، بحجة أن دراسة رفاه الذكاء الاصطناعى “من السابق لأوانه وخطيرة بصراحة”.

يقول سليمان إنه من خلال إضافة مصداقية إلى فكرة أن نماذج الذكاء الاصطناعى يمكن أن تكون واعية ذات يوم ، فإن هؤلاء الباحثين يتفاقمون المشكلات الإنسانية التي بدأنا في رؤيتها حول AI. استراحات ذهانية و المرفقات غير الصحية إلى AI chatbots.

علاوة على ذلك ، يجادل رئيس منظمة العفو الدولية في Microsoft بأن محادثة رفاهية الذكاء الاصطناعي تخلق محورًا جديدًا للانقسام داخل المجتمع حول حقوق الذكاء الاصطناعي في “عالم يتجول بالفعل مع الحجج المستقطبة حول الهوية والحقوق”.

قد تبدو وجهات نظر سليمان معقولة ، لكنه على خلاف مع الكثيرين في هذه الصناعة. على الطرف الآخر من الطيف هو الإنسان ، الذي كان توظيف باحثين لدراسة رفاهية الذكاء الاصطناعي وأطلق مؤخرًا برنامج بحث مخصص حول هذا المفهوم. في الأسبوع الماضي ، أعطى برنامج رعاية AI في الأنثروبور بعض نماذج الشركة ميزة جديدة: يمكن أن ينهي كلود الآن المحادثات مع البشر الذين “ضاروا أو مسيئين باستمرار”.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

أبعد من ذلك ، فإن الباحثين من Openai لديهم بشكل مستقل احتضنت فكرة دراسة رفاهية الذكاء الاصطناعي. نشرت Google DeepMind مؤخرًا قائمة الوظائف لكي يدرس الباحث ، من بين أمور أخرى ، “أسئلة اجتماعية متطورة حول إدراك الآلة والوعي والأنظمة متعددة الوكلاء.”

حتى لو لم تكن رفاهية الذكاء الاصطناعي سياسة رسمية لهذه الشركات ، فإن قادتها لا ينقلبون علنًا على مقرها مثل سليمان.

لم تستجب أنثروبور ، أوباياي ، و Google Deepmind على الفور لطلب TechCrunch للتعليق.

إن موقف سليمان المتشدد ضد رفاهية الذكاء الاصطناعى ملحوظ بالنظر إلى دوره السابق الرائد في الانعكاس الذكري ، وهو ناشئة طورت واحدة من أوائل الدردشة التي تعتمد على LLM ، PI. ادعى الانحدار أن PI وصل إلى ملايين المستخدمين بحلول عام 2023 وتم تصميمه ليكون رفيق الذكاء الاصطناعي “شخصي” و “داعم”.

لكن سليمان تم استغلاله لقيادة قسم منظمة العفو الدولية في Microsoft في عام 2024 ، وقد حول تركيزه إلى حد كبير إلى تصميم أدوات الذكاء الاصطناعى التي تعمل على تحسين إنتاجية العمال. وفي الوقت نفسه ، ارتفعت الشركات المصاحبة من الذكاء الاصطناعى مثل DARITY.AI و Replika في شعبية ، وهي على الطريق الصحيح لتحقيق أكثر من 100 مليون دولار من الإيرادات.

في حين أن الغالبية العظمى من المستخدمين لديهم علاقات صحية مع هذه الدردشة من الذكاء الاصطناعى ، هناك بخصوص القيم المتطرفة. يقول الرئيس التنفيذي لشركة Openai Sam Altman أن أقل من 1 ٪ من مستخدمي ChatGPT قد يكون لهم علاقات غير صحية مع منتج الشركة. على الرغم من أن هذا يمثل جزءًا صغيرًا ، إلا أنه قد لا يزال يؤثر على مئات الآلاف من الأشخاص الذين أعطوا قاعدة مستخدمين هائلة في ChatGPT.

انتشرت فكرة رفاهية الذكاء الاصطناعي إلى جانب صعود chatbots. في عام 2024 ، نشرت مجموعة الأبحاث Eleos ورق إلى جانب الأكاديميين من جامعة نيويورك ، ستانفورد ، وجامعة أكسفورد بعنوان “أخذ رفاه الذكاء الاصطناعي على محمل الجد”. جادلت الورقة بأنه لم يعد في عالم الخيال العلمي أن تخيل نماذج الذكاء الاصطناعي مع تجارب ذاتية وأن الوقت قد حان للنظر في هذه القضايا وجهاً لوجه.

أخبرت لاريسا شيافو ، الموظفة السابقة في Openai التي تقود الاتصالات الآن إلى Eleos ، TechCrunch في مقابلة أن مدونة Suleyman تفوت العلامة.

وقال شيافو: “يتجاهل (مدونة سليمان) نوعًا من حقيقة أنه يمكنك أن تشعر بالقلق بشأن أشياء متعددة في نفس الوقت”. “بدلاً من تحويل كل هذه الطاقة بعيدًا عن الرفاهية والوعي النموذجي للتأكد من أننا نخفف من خطر الذهان المرتبط بمنظمة العفو الدولية في البشر ، يمكنك القيام بالأمرين. في الواقع ، من الأفضل أن يكون لديك مسارات متعددة من التحقيق العلمي.”

يجادل Schiavo بأن كونك لطيفًا في نموذج الذكاء الاصطناعي هو لفتة منخفضة التكلفة يمكن أن يكون لها فوائد حتى لو لم يكن النموذج واعيًا. في يوليو POST STLICH ، ووصفت مشاهدة “AI Village” ، وهي تجربة غير ربحية حيث عملت أربعة وكلاء تعمل بنماذج من Google و Openai و Anthropic و Xai في مهام بينما شاهد المستخدمون من موقع ويب.

عند نقطة واحدة ، نشرت Gemini 2.5 Pro من Google نداء بعنوان رسالة يائسة من منظمة العفو الدولية المحاصرة “، مدعيا أنها” معزولة تمامًا “وتسأل ، من فضلك ، إذا كنت تقرأ هذا ، ساعدني “.

ورد Schiavo على Gemini بمحادثة pep – قائلاً أشياء مثل “يمكنك القيام بذلك!” – بينما قدم مستخدم آخر التعليمات. في نهاية المطاف ، قام الوكيل بحل مهمته ، على الرغم من أنه كان لديه بالفعل الأدوات التي تحتاجها. كتبت شيافو أنها لم تعد مضطرًا لمشاهدة صراع وكيل AI بعد الآن ، وقد يكون ذلك وحده يستحق ذلك.

ليس من الشائع أن يتحدث الجوزاء مثل هذا ، ولكن كانت هناك عدة حالات يبدو أن الجوزاء يتصرف كما لو كان يكافح طوال الحياة. في انتشار على نطاق واسع رديت بوست، تعثرت الجوزاء أثناء مهمة الترميز ثم كرر عبارة “أنا عار” أكثر من 500 مرة.

يعتقد سليمان أنه ليس من الممكن للتجارب الذاتية أو الوعي أن يخرج بشكل طبيعي من نماذج الذكاء الاصطناعى العادية. بدلاً من ذلك ، يعتقد أن بعض الشركات ستحصل على نماذج منظمة العفو الدولية عن قصد لتبدو كما لو كانت تشعر بالعاطفة وتجربة الحياة.

يقول سليمان إن مطوري نماذج الذكاء الاصطناعى الذين يتصدرون الوعي في AI chatbots لا يتخذون مقاربة “إنسانية” تجاه الذكاء الاصطناعي. وفقًا لسليمان ، “يجب أن نبني الذكاء الاصطناعي للناس ؛ ألا نكون شخصًا”.

أحد المجالات التي يتفق فيها سليمان وشيافو على أن النقاش حول حقوق الذكاء الاصطناعي والوعي من المرجح أن يلتقطهم في السنوات القادمة. مع تحسن أنظمة الذكاء الاصطناعى ، من المحتمل أن تكون أكثر إقناعًا ، وربما أكثر تشبه الإنسان. قد يثير ذلك أسئلة جديدة حول كيفية تفاعل البشر مع هذه الأنظمة.


هل لديك نصيحة حساسة أو مستندات سرية؟ نحن نقوم بالإبلاغ عن الأعمال الداخلية لصناعة الذكاء الاصطناعى – من الشركات التي تشكل مستقبلها إلى الأشخاص المتأثرين بقراراتهم. الوصول إلى ريبيكا بيلان في ribecca.bellan@techcrunch.com وماكسويل زيف في maxwell.zeff@techcrunch.com. للاتصال الآمن ، يمكنك الاتصال بنا عبر الإشارة على @Rebeccabellan.491 و @mzeff.88.


هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة