متابعة – أمل علوي
أثار قادة وادي السيليكون، بما في ذلك قيصر البيت الأبيض للذكاء الاصطناعي والعملات المشفرة ديفيد ساكس والرئيس التنفيذي للاستراتيجية في OpenAI، جيسون كوون، ضجة على الإنترنت هذا الأسبوع بسبب تعليقاتهم حول المجموعات التي تروج لسلامة الذكاء الاصطناعي. وفي حالات منفصلة، زعموا أن بعض المدافعين عن سلامة الذكاء الاصطناعي ليسوا فاضلين كما يبدون، وهم إما يتصرفون لصالح أنفسهم أو لصالح سادة الدمى المليارديرات وراء الكواليس.
تقول مجموعات سلامة الذكاء الاصطناعي التي تحدثت مع موقع TechCrunch إن المزاعم الصادرة عن Sacks وOpenAI هي أحدث محاولة من جانب وادي السيليكون لتخويف منتقديه، ولكنها بالتأكيد ليست الأولى. في عام 2024، نشرت بعض شركات رأس المال الاستثماري شائعات مفادها أن مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا، SB 1047، من شأنه أن يرسل مؤسسي الشركات الناشئة إلى السجن. ووصف معهد بروكينجز هذه الشائعة بأنها واحدة من عدة شائعات.تحريفاتحول مشروع القانون، لكن الحاكم جافين نيوسوم اعترض عليه في النهاية على أي حال.
وسواء كان ساكس وOpenAI يقصدان تخويف المنتقدين أم لا، فإن أفعالهما أخافت العديد من المدافعين عن سلامة الذكاء الاصطناعي بما فيه الكفاية. طلب العديد من قادة المنظمات غير الربحية الذين تواصلت معهم TechCrunch في الأسبوع الماضي التحدث بشرط عدم الكشف عن هويتهم لتجنيب مجموعاتهم الانتقام.
يسلط هذا الجدل الضوء على التوتر المتزايد في وادي السيليكون بين بناء الذكاء الاصطناعي بشكل مسؤول وبنائه ليكون منتجًا استهلاكيًا ضخمًا – وهو موضوع قمت أنا وزملائي كيرستن كوروسيك وأنتوني ها بمناقشةه في حلقة هذا الأسبوع. عدالة بودكاست. نتعمق أيضًا في قانون سلامة الذكاء الاصطناعي الجديد الذي تم إقراره في كاليفورنيا لتنظيم برامج الدردشة الآلية، ونهج OpenAI في التعامل مع الإثارة الجنسية في ChatGPT.
يوم الثلاثاء، كتب ساكس أ مشاركة على X زاعمين أن الأنثروبي – الذي لديه أثارت المخاوف إن الحديث عن قدرة الذكاء الاصطناعي على المساهمة في البطالة والهجمات الإلكترونية والأضرار الكارثية التي تلحق بالمجتمع هو ببساطة إثارة الخوف لتمرير قوانين من شأنها أن تفيد نفسها وتغرق الشركات الناشئة الصغيرة في الأعمال الورقية. كان Anthropic هو المختبر الرئيسي الوحيد للذكاء الاصطناعي الذي وافق على مشروع قانون مجلس الشيوخ في كاليفورنيا رقم 53 (SB 53)، وهو مشروع قانون يحدد متطلبات الإبلاغ عن السلامة لشركات الذكاء الاصطناعي الكبيرة، والذي تم التوقيع عليه ليصبح قانونًا الشهر الماضي.
كان ساكس يرد على أ مقال الفيروسية من المؤسس المشارك لشركة Anthropic جاك كلارك حول مخاوفه بشأن الذكاء الاصطناعي. ألقى كلارك المقال كخطاب في مؤتمر Curve AI للسلامة في بيركلي قبل أسابيع. من المؤكد أن الجلوس وسط الجمهور بدا وكأنه وصف حقيقي لتحفظات أحد التقنيين بشأن منتجاته، لكن ساكس لم يرى الأمر بهذه الطريقة.
وقال ساكس إن شركة أنثروبيك تدير “إستراتيجية سيطرة تنظيمية متطورة”، على الرغم من أنه من الجدير بالذكر أن الإستراتيجية المتطورة حقًا ربما لن تنطوي على خلق عدو من الحكومة الفيدرالية. في أ متابعة المنشور على X، وأشار ساكس إلى أن الأنثروبيك “وضعت نفسها باستمرار كعدو لإدارة ترامب”.
حدث تك كرانش
سان فرانسيسكو
|
27-29 أكتوبر 2025
وفي هذا الأسبوع أيضًا، كتب جيسون كوون، كبير مسؤولي الإستراتيجية في OpenAI، أ مشاركة على X موضحًا سبب قيام الشركة بإرسال مذكرات استدعاء إلى المنظمات غير الربحية المعنية بسلامة الذكاء الاصطناعي، مثل Encode، وهي منظمة غير ربحية تدعو إلى سياسة مسؤولة للذكاء الاصطناعي. (استدعاء الاستدعاء هو أمر قانوني يطالب بمستندات أو شهادة.) قال كوون إنه بعد أن رفع إيلون موسك دعوى قضائية ضد OpenAI – بسبب مخاوف من أن صانع ChatGPT قد انحرف بعيدًا عن مهمته غير الربحية – وجدت OpenAI أنه من المشكوك فيه كيف أثارت العديد من المنظمات أيضًا معارضة لإعادة هيكلتها. قدمت شركة Encode ملخصًا صديقًا لدعم الدعوى القضائية التي رفعها Musk، وتحدثت منظمات غير ربحية أخرى علنًا ضد إعادة هيكلة OpenAI.
وقال كوون: “أثار هذا تساؤلات تتعلق بالشفافية حول من كان يمولهم وما إذا كان هناك أي تنسيق”.
ذكرت NBC News هذا الأسبوع أن OpenAI أرسلت مذكرات استدعاء واسعة النطاق إلى Encode و ست منظمات غير ربحية أخرى الذي انتقد الشركة، وسأل عن اتصالاتها المتعلقة باثنين من أكبر معارضي OpenAI، الرئيس التنفيذي لشركة Musk وMeta مارك زوكربيرج. طلبت OpenAI أيضًا من Encode الاتصالات المتعلقة بدعمها لـ SB 53.
قال أحد قادة سلامة الذكاء الاصطناعي البارزين لـ TechCrunch أن هناك انقسامًا متزايدًا بين فريق الشؤون الحكومية في OpenAI ومنظمة الأبحاث الخاصة به. بينما ينشر باحثو السلامة في OpenAI بشكل متكرر تقارير تكشف عن مخاطر أنظمة الذكاء الاصطناعي، مارست وحدة السياسات في OpenAI ضغوطًا ضد SB 53، قائلة إنها تفضل وجود قواعد موحدة على المستوى الفيدرالي.
تحدث جوشوا أخيام، رئيس قسم تنسيق المهام في OpenAI، عن قيام شركته بإرسال مذكرات استدعاء إلى المنظمات غير الربحية في مشاركة على X هذا الاسبوع.
قال أخيم: “فيما قد يمثل خطرًا على مسيرتي المهنية بأكملها، سأقول: هذا لا يبدو رائعًا”.
صرح بريندان شتاينهاوزر، الرئيس التنفيذي لمنظمة Alliance for Secure AI غير الربحية المعنية بسلامة الذكاء الاصطناعي (والتي لم يتم استدعاءها من قبل OpenAI)، لـ TechCrunch أن OpenAI تبدو مقتنعة بأن منتقديها جزء من مؤامرة يقودها ماسك. ومع ذلك، فهو يرى أن هذا ليس هو الحال، وأن الكثير من مجتمع سلامة الذكاء الاصطناعي ينتقد بشدة ممارسات السلامة الخاصة بـ xAI، أو عدم وجودها.
وقال شتاينهاوزر: “من جانب OpenAI، يهدف هذا إلى إسكات النقاد، وترهيبهم، وإثناء المنظمات غير الربحية الأخرى عن فعل الشيء نفسه”. “بالنسبة لساكس، أعتقد أنه يشعر بالقلق من أن حركة (سلامة الذكاء الاصطناعي) آخذة في النمو وأن الناس يريدون مساءلة هذه الشركات”.
شارك سريرام كريشنان، كبير مستشاري السياسات في البيت الأبيض لشؤون الذكاء الاصطناعي والشريك العام السابق لشركة a16z، في المحادثة هذا الأسبوع مع أ مشاركة وسائل الاعلام الاجتماعية من تلقاء نفسه، واصفًا المدافعين عن سلامة الذكاء الاصطناعي بأنهم بعيدون عن الواقع. وحث منظمات سلامة الذكاء الاصطناعي على التحدث إلى “الأشخاص في العالم الحقيقي الذين يستخدمون الذكاء الاصطناعي ويبيعونه ويتبنونه في منازلهم ومؤسساتهم”.
وجدت دراسة حديثة أجراها مركز بيو أن ما يقرب من نصف الأمريكيين كذلك أكثر قلقا من متحمس حول الذكاء الاصطناعي، ولكن من غير الواضح ما الذي يقلقهم بالضبط. تناولت دراسة حديثة أخرى المزيد من التفاصيل ووجدت أن الناخبين الأمريكيين يهتمون أكثر بها فقدان الوظائف والتزييف العميق من المخاطر الكارثية التي يسببها الذكاء الاصطناعي، والتي تركز عليها حركة سلامة الذكاء الاصطناعي إلى حد كبير.
إن معالجة هذه المخاوف المتعلقة بالسلامة يمكن أن تأتي على حساب النمو السريع لصناعة الذكاء الاصطناعي – وهي المقايضة التي تقلق الكثيرين في وادي السيليكون. ومع دعم الاستثمار في الذكاء الاصطناعي لقسم كبير من الاقتصاد الأميركي، فإن الخوف من الإفراط في التنظيم أمر مفهوم.
ولكن بعد سنوات من التقدم غير المنظم في مجال الذكاء الاصطناعي، يبدو أن حركة سلامة الذكاء الاصطناعي تكتسب زخمًا حقيقيًا مع اقتراب عام 2026. وقد تكون محاولات وادي السيليكون للرد على المجموعات التي تركز على السلامة علامة على نجاحها.
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي









