متابعة – أمل علوي
يوم الأربعاء ، أعلنت شركة أمن الذكاء الاصطناعي Irregular 80 مليون دولار في تمويل جديد في جولة بقيادة Sequoia Capital و Redpoint Ventures ، بمشاركة من الرئيس التنفيذي لشركة Wiz Assaf Rappaport. وقال مصدر مقرب من الصفقة إن الجولة غير النظامية بقيمة 450 مليون دولار.
وقال المؤسس المشارك دان لاهاف لـ TechCrunch: “وجهة نظرنا هي أنه قريباً ، سيأتي الكثير من النشاط الاقتصادي من تفاعل الإنسان على AI وتفاعل AI-AI”
المعروف سابقًا باسم Labs Pattern Labs ، يعد غير منتظم بالفعل لاعبًا مهمًا في تقييمات الذكاء الاصطناعي. تم الاستشهاد بعمل الشركة في تقييمات الأمن لكلود 3.7 السوناتة إلى جانب نماذج Openai’s O3 و O4-Mini. بشكل عام ، إطار الشركة لتسجيل قدرة الكشف عن الضعف على النموذج (حلول حلول) يستخدم على نطاق واسع في الصناعة.
على الرغم من أن غير النظامية قد قامت بعمل كبير في المخاطر الحالية للموديلات ، فإن الشركة تقوم بجمع التبرعات مع العين نحو شيء أكثر طموحًا: اكتشاف المخاطر والسلوكيات الناشئة قبل أن تظهر في البرية. قامت الشركة ببناء نظام مفصل للبيئات المحاكاة ، مما يتيح اختبارًا مكثفًا لنموذج قبل إصداره.
يقول عامر نيفو ، المؤسس المشارك: “لدينا محاكاة شبكية معقدة حيث نتولى منظمة العفو الدولية دور المهاجم والمدافع”. “لذلك عندما يخرج نموذج جديد ، يمكننا أن نرى أين تصمد الدفاعات وأين لا تفعل ذلك.”
أصبح الأمن نقطة تركيز مكثفة لصناعة الذكاء الاصطناعى ، حيث إن المخاطر المحتملة التي تشكلها نماذج الحدود مع ظهور المزيد من المخاطر. قام Openai بإصلاح تدابير الأمن الداخلية هذا الصيف ، مع مراعاة التجسس المحتمل للشركات.
في الوقت نفسه ، تكون نماذج الذكاء الاصطناعى بارعة بشكل متزايد في العثور على نقاط الضعف البرمجية – وهي قوة ذات آثار خطيرة على كل من المهاجمين والمدافعين.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
بالنسبة للمؤسسين غير النظاميين ، فإن هذا هو الأول من العديد من الصداع الأمني الناجم عن القدرات المتزايدة لنماذج اللغة الكبيرة.
يقول لاهاف: “إذا كان الهدف من مختبر الحدود هو إنشاء نماذج أكثر تطوراً وقادرة على نحو متزايد ، فإن هدفنا هو تأمين هذه النماذج”. “لكنه هدف متحرك ، لذلك بطبيعته هناك الكثير ، والمزيد من العمل الذي يجب القيام به في المستقبل.”
هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي