متابعة – أمل علوي
يويل روث، في السابق رئيس ثقة وسلامة Twitter ، الآن في Match ، يشارك مخاوفه بشأن مستقبل الويب الاجتماعي المفتوح وقدرتها على مكافحة المعلومات الخاطئة والبريد العشوائي وغيرها من المحتوى غير القانوني ، مثل مواد الاعتداء الجنسي على الأطفال (CSAM). في مقابلة حديثة ، كان روث يشعر بالقلق من عدم وجود أدوات الاعتدال المتاحة لـ Fediverse – الشبكة الاجتماعية المفتوحة التي تتضمن تطبيقات مثل Mastodon و Threads و Pixelfed وغيرها ، بالإضافة إلى منصات مفتوحة أخرى مثل Bluesky.
كما تذكر عن اللحظات الرئيسية في الثقة والسلامة على Twitter ، مثل قراره بحظر الرئيس ترامب من المنصة ، وينتشر المعلومات الخاطئة من قبل مزارع الروبوت الروسية ، وكيف سقط مستخدمو Twitter ، بما في ذلك الرئيس التنفيذي Jack Dorsey ، فريسة على الروبوتات.
على البودكاست ثورةأشار روث إلى أن الجهود المبذولة في بناء مجتمعات عبر الإنترنت أكثر ديمقراطياً عبر شبكة الإنترنت المفتوحة هي أيضًا تلك التي لديها أقل عدد من الموارد عندما يتعلق الأمر بأدوات الاعتدال.
“… بالنظر إلى Mastodon ، بالنظر إلى الخدمات الأخرى القائمة على ActivityPub (البروتوكول) ، والنظر إلى Bluesky في أيامه المبكرة ، ثم النظر إلى المواضيع عندما بدأت Meta في تطويرها ، ما رأيناه هو أن الكثير من الخدمات التي كانت تميل إلى أصعب السيطرة على المجتمع أعطت مجتمعاتها الأقل أدوات تقنية لإدارة سياساتها.”
ورأى أيضًا “انهيارًا كبيرًا جدًا” على شبكة الإنترنت المفتوحة عندما يتعلق الأمر بالشفافية والشرعية التي كان لدى Twitter ذات يوم. بينما ، يمكن القول أن الكثيرين في ذلك الوقت لم يوافقوا على قرار تويتر بحظر ترامب ، أوضحت الشركة الأساس المنطقي للقيام بذلك. الآن ، يشعر مقدمو وسائل التواصل الاجتماعي بالقلق الشديد بشأن منع الجهات الفاعلة السيئة من ألعابهم لدرجة أنهم نادراً ما يشرحون أنفسهم.
وفي الوقت نفسه ، في العديد من المنصات الاجتماعية المفتوحة ، لن يتلقى المستخدمون إشعارًا حول منشوراتهم المحظورة ، وستختفي منشوراتهم – لم يكن هناك حتى مؤشر للآخرين على وجود المنشور.
“أنا لا ألوم الشركات الناشئة على كونها شركات ناشئة ، أو أجزاء جديدة من البرامج التي تفتقر إلى جميع الأجراس والصفارات ، ولكن إذا كان بيت القصيد من المشروع يزيد من شرعية الحكم الديمقراطية ، وما فعلناه هو التراجع عن الحكم ، إذن ، لقد نجح هذا بالفعل على الإطلاق؟” يتساءل روث.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
اقتصاديات الاعتدال
كما طرح القضايا حول اقتصاديات الاعتدال وكيف لم يكن النهج الفيدرالي مستدامًا بعد على هذه الجبهة.
على سبيل المثال ، كانت منظمة تدعى IFTAS (الثقة والسلامة المستقلة) تعمل على بناء أدوات الاعتدال لـ Fediverse ، بما في ذلك تزويد Fediverse بإمكانية الوصول إلى أدوات لمكافحة CSAM ، لكنها نفدت المال و اضطررت لإغلاق الكثير من مشاريعها في وقت سابق من عام 2025.
“لقد رأينا الأمر قادمًا قبل عامين. لقد رأى Iftas ذلك. كل من يعمل في هذا المجال يتطوع إلى حد كبير وقتهم وجهوده ، وهذا لا يذهب إلى حد كبير ، لأنه في مرحلة ما ، يكون لدى الأشخاص عائلات ويحتاجون إلى دفع الفواتير ، وحساب التكاليف المتراكمة إذا كنت بحاجة إلى تشغيل نماذج ML لاكتشاف أنواع معينة من المحتوى السيئ” ، أوضح. “كل شيء يصبح مكلفًا ، ولا يزال الاقتصاديات لهذا النهج الاتحاد في الثقة والسلامة لم تضاف تمامًا. وفي رأيي ، لا يزال كذلك”.
في هذه الأثناء ، اختار Bluesky توظيف المشرفين والتوظيف في الثقة والسلامة ، لكنه يحد من اعتدال تطبيقه الخاص. بالإضافة إلى ذلك ، فإنهم يوفرون أدوات تتيح للأشخاص تخصيص تفضيلات الاعتدال الخاصة بهم.
وقال روث: “إنهم يقومون بهذا العمل على نطاق واسع. من الواضح أن هناك مجالًا للتحسين. أحب أن أراهم أكثر شفافية قليلاً. لكنهم يقومون بالأشياء الصحيحة”. ومع ذلك ، مع زيادة اللامركزية في الخدمة ، ستواجه Bluesky أسئلة حول متى تقع على عاتقها مسؤولية حماية الفرد على احتياجات المجتمع ، كما يلاحظ.
على سبيل المثال ، مع doxxing ، من الممكن أن لا يرى شخص ما أن معلوماتهم الشخصية كانت تنتشر عبر الإنترنت بسبب كيفية تكوين أدوات الاعتدال الخاصة بهم. ولكن يجب أن لا يزال من مسؤولية شخص ما تطبيق هذه الحماية ، حتى لو لم يكن المستخدم على تطبيق Bluesky الرئيسي.
أين ترسم الخط على الخصوصية
هناك قضية أخرى تواجه فيففرس وهي أن قرار تفضيل الخصوصية يمكنه إحباط محاولات الاعتدال. على الرغم من أن Twitter حاول عدم تخزين البيانات الشخصية التي لم تكن بحاجة إليها ، إلا أنها لا تزال تجمع أشياء مثل عنوان IP للمستخدم ، وعندما وصلوا إلى الخدمة ومعرفات الجهاز والمزيد. ساعدت هذه الشركة عندما تحتاج إلى إجراء تحليل للطب الشرعي لشيء مثل مزرعة القزم الروسية.
في الوقت نفسه ، قد لا يجمع Adviverse Adviverse السجلات اللازمة أو لن ينظروا إليهم إذا كانوا يعتقدون أنه انتهاك لخصوصية المستخدم.
ولكن الحقيقة هي أنه بدون بيانات ، من الصعب تحديد من هو الروبوت حقًا.
قدم روث بعض الأمثلة على ذلك من أيام تويتر ، مشيرًا إلى كيف أصبح اتجاه المستخدمين للرد على “الروبوت” على أي شخص لم يوافقوا عليه. يقول إنه قام في البداية بتنبيه واستعرض كل هذه المنشورات يدويًا ، حيث قام بفحص مئات الحالات من اتهامات “الروبوت” ، ولم يكن أحد على صواب. حتى المؤسس المشارك لشركة Twitter والرئيس التنفيذي السابق جاك دورسي هولز ضحية ، أعيد تغريده من ممثل روسي زعم أنه كريستال جونسون، امرأة سوداء من نيويورك.
وقال روث: “لقد أحب الرئيس التنفيذي للشركة هذا المحتوى ، وتضخّسه ، ولم يكن لديه أي وسيلة لمعرفة كمستخدم بأن كريستال جونسون كان في الواقع قزمًا روسيًا”.
دور الذكاء الاصطناعي
كان موضوع المناقشة في الوقت المناسب كيف كان منظمة العفو الدولية تغيير المشهد. أشار روث إلى الأبحاث الحديثة من ستانفورد التي وجدت أنه في سياق سياسي ، يمكن أن تكون نماذج اللغة الكبيرة (LLMS) أكثر إقناعًا من البشر عند ضبطها بشكل صحيح.
هذا يعني أن الحل الذي يعتمد فقط على تحليل المحتوى نفسه لا يكفي.
بدلاً من ذلك ، تحتاج الشركات إلى تتبع الإشارات السلوكية الأخرى – مثل إذا كانت بعض الكيانات تنشئ حسابات متعددة ، أو استخدام الأتمتة للنشر ، أو النشر في أوقات غريبة من اليوم تتوافق مع المناطق الزمنية المختلفة ، كما اقترح.
وقال روث: “هذه إشارات سلوكية كامنة حتى في المحتوى المقنع حقًا. وأعتقد أن هذا هو المكان الذي يجب أن تبدأ فيه هذا”. “إذا كنت تبدأ بالمحتوى ، فأنت في سباق التسلح ضد قيادة نماذج الذكاء الاصطناعي وفقدت بالفعل.”
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي