A white surgical mask sits on a black rock.
ستعرض OKOSIX البلاستيك القابل للتحلل في TechCrunch Disrupt 2025
الإثنين - 6 أكتوبر - 2025
Instagram logo
يقدم Instagram جائزة “Ring” الجديدة لكبار المبدعين
الإثنين - 6 أكتوبر - 2025

متابعة – أمل علوي

مثل كل شركة تقنية كبيرة هذه الأيام ، فإن Meta لديها نموذج من الذكاء الاصطناعي الرائد ، يسمى Llama. Llama فريدة من نوعها إلى حد ما بين النماذج الرئيسية من حيث أنها “مفتوحة” ، مما يعني أنه يمكن للمطورين تنزيله واستخدامه كما يرضون (مع بعض القيود). هذا على عكس نماذج مثل كلودز ، وجيميني من Google ، و XAI’s Grok ، ومعظم طرز ChatGPT من Openai ، والتي لا يمكن الوصول إليها إلا عبر واجهات برمجة التطبيقات.

ومع ذلك ، من مصلحة منح المطورين ، تشارك Meta أيضًا مع البائعين ، بما في ذلك AWS و Google Cloud و Microsoft Azure ، لإتاحة إصدارات Llama التي تستضيفها السحابة. بالإضافة إلى ذلك ، تنشر الشركة الأدوات والمكتبات والوصفات في كتاب الطهي Llama لمساعدة المطورين على ضبط وتقييم وتكييف النماذج مع مجالهم. مع الأجيال الأحدث مثل LLAMA 3 و LLAMA 4 ، توسعت هذه القدرات لتشمل الدعم الأصلي متعدد الوسائط وطرات السحابة الأوسع.

إليك كل ما تحتاج لمعرفته حول LLAMA’s Meta ، من قدراتها وإصداراتها إلى المكان الذي يمكنك استخدامه. سنبقي هذا المنشور محدثًا مع إصدار ترقيات META ويقدم أدوات DEV جديدة لدعم استخدام النموذج.

ما هو لاما؟

لاما هي عائلة من النماذج – وليس فقط واحدة. أحدث إصدار هو Llama 4 ؛ تم إصداره في أبريل 2025 ويتضمن ثلاثة نماذج:

  • كشاف: 17 مليار معلمة نشطة ، 109 مليار معلمات ، ونافذة سياق من 10 ملايين رمز.
  • مافريك: 17 مليار معلمة نشطة ، و 400 مليار معلمة ، ونافذة سياق قدرها مليون رمز.
  • عملاق: لم يتم إصداره بعد ولكن سيكون لديه 288 مليار معلمة نشطة و 2 تريليون معلمات.

(في علم البيانات ، يتم تنظيم الرموز المميزة من البيانات الأولية ، مثل المقاطع “المروحة” و “TAS” و “tic” في كلمة “رائعة”.)

يشير سياق النموذج ، أو نافذة السياق ، إلى بيانات الإدخال (على سبيل المثال ، النص) الذي ينظر إليه النموذج قبل إنشاء الإخراج (على سبيل المثال ، نص إضافي). يمكن أن يمنع السياق الطويل النماذج من “نسيان” محتوى المستندات والبيانات الحديثة ، ومن الانحراف عن الموضوع واستقراء الخاطئ. ومع ذلك ، يمكن أن تؤدي نوافذ السياق الأطول أيضًا إلى “نسيان” طراز بعض الدرابزينات السلامة وكونه أكثر عرضة لإنتاج محتوى يتماشى مع المحادثة ، مما أدى إلى بعض المستخدمين نحو ذلك التفكير الوهمي.

للرجوع إليها ، فإن نافذة السياق البالغة 10 ملايين التي تعد بها Llama 4 Scout تساوي تقريبًا نص حوالي 80 رواية متوسطة. نافذة Llama 4 Maverick’s 1 مليون سياق تساوي حوالي ثماني روايات.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

تم تدريب جميع طرز Llama 4 على “كميات كبيرة من النصوص والصورة والفيديو غير المُعلّمة” لمنحهم “فهمًا بصريًا واسعًا” ، وكذلك على 200 لغة ، وفقًا لـ Meta.

يعد Llama 4 Scout و Maverick أول نماذج متعددة الوسائط في Meta. لقد تم تصميمها باستخدام بنية “الخبراء المزيج” (MOE) ، مما يقلل من الحمل الحسابي ويحسن الكفاءة في التدريب والاستدلال. Scout ، على سبيل المثال ، لديه 16 خبير ، و Maverick لديه 128 خبير.

يشتمل Llama 4 Behemoth على 16 خبيرًا ، ويشير Meta إلى ذلك كمدرس للنماذج الأصغر.

تعتمد Llama 4 على سلسلة Llama 3 ، والتي تضمنت طرز 3.1 و 3.2 المستخدمة على نطاق واسع للتطبيقات التي تم ضبطها على نطاق واسع ونشر السحابة.

ماذا يمكن أن تفعل لاما؟

مثل نماذج الذكاء الاصطناعي الأخرى ، يمكن أن تؤدي Llama مجموعة من المهام المساعدة المختلفة ، مثل الترميز والإجابة على أسئلة الرياضيات الأساسية ، بالإضافة إلى تلخيص الوثائق في 12 لغة على الأقل (العربية ، الإنجليزية ، الألمانية ، الفرنسية ، الهندية ، الإندونيسية ، الإيطالية ، البرتغالية ، الهندوسية ، الإسبانية ، التاغالوج ، التايلندي ، والفيتامي). معظم أعباء العمل المستندة إلى النص-فكر في تحليل الملفات الكبيرة مثل PDFs وجداول البيانات-تقع ضمن اختصاصها ، ودعم جميع طرز Llama 4 نصًا وصورة وإدخال فيديو.

تم تصميم Llama 4 Scout لسير العمل الأطول وتحليل البيانات الضخم. Maverick هو نموذج عام أفضل في موازنة قوة التفكير وسرعة الاستجابة ، وهو مناسب للترميز ، ودردشات ، ومساعدين تقنيين. وقد تم تصميم العملاق للبحث المتقدم ، وتقطير النموذج ، ومهام STEM.

يمكن تكوين طرز LLAMA ، بما في ذلك LLAMA 3.1 ، للاستفادة من تطبيقات الطرف الثالث والأدوات وواجهة برمجة التطبيقات لأداء المهام. تم تدريبهم على استخدام البحث الشجاع عن الإجابة على الأسئلة حول الأحداث الأخيرة ؛ Wolfram Alpha API للاستفسارات المتعلقة بالرياضيات والعلوم ؛ ومترجم بيثون للتحقق من صحة الكود. ومع ذلك ، تتطلب هذه الأدوات التكوين المناسب ولا يتم تمكينها تلقائيًا خارج المربع.

أين يمكنني استخدام لاما؟

إذا كنت تتطلع ببساطة إلى الدردشة مع Llama ، فإنها تعمل على تشغيل تجربة Meta AI chatbot على Facebook Messenger و WhatsApp و Instagram و Oculus و Meta.ai في 40 دولة. تُستخدم إصدارات Llama التي تم ضبطها في تجارب Meta AI في أكثر من 200 دولة وإقليم.

تتوفر Models Llama 4 Models Scout و Maverick على Llama.com وشركاء Meta ، بما في ذلك منصة مطوري الذكاء الاصطناعى. العملاق لا يزال في التدريب. يمكن للمطورين الذين يبنون مع Llama تنزيل النموذج أو استخدامه أو ضبطه عبر معظم المنصات السحابية الشهيرة. تدعي Meta أن لديها أكثر من 25 شريكًا يستضيف Llama ، بما في ذلك Nvidia و Databricks و Groq و Dell و Snowflake. وعلى الرغم من أن “بيع الوصول” إلى الطرز المتاحة من Meta ليس نموذج أعمال Meta ، فإن الشركة تجني بعض الأموال من خلال اتفاقيات مشاركة الإيرادات مع المضيفين النموذجيين.

قام بعض هؤلاء الشركاء ببناء أدوات وخدمات إضافية على رأس LLAMA ، بما في ذلك الأدوات التي تتيح للنماذج الرجوع إلى بيانات الملكية وتمكينها من التشغيل في زمنات زمنية منخفضة.

الأهم من ذلك ، ترخيص لاما يقيد كيف يمكن للمطورين نشر النموذج: يجب على مطوري التطبيقات الذين لديهم أكثر من 700 مليون مستخدم شهريًا طلب ترخيص خاص من Meta ستمنحه الشركة حسب تقديرها.

في مايو 2025 ، أطلقت Meta برنامجًا جديدًا لتحفيز الشركات الناشئة لتبني نماذج Llama. تقدم Llama للشركات الناشئة دعم الشركات من فريق Llama في Meta والوصول إلى التمويل المحتمل.

إلى جانب Llama ، توفر Meta أدوات تهدف إلى جعل النموذج “أكثر أمانًا” للاستخدام:

  • حارس لاما، إطار الاعتدال.
  • Cyberseceval، مجموعة تقييم مخاطر الأمن السيبراني.
  • جدار الحماية لاما، دراسة أمنية مصممة لتمكين بناء أنظمة الذكاء الاصطناعي الآمنة.
  • درع الكود، والذي يوفر الدعم لتصفية وقت الاستدلال للرمز غير الآمن الذي تنتجه LLMS.

يحاول Llama Guard اكتشاف محتوى يحتمل أن يتم إدخاله في نموذج Llama-أو تم إنشاؤه بواسطة نموذج Llama ، بما في ذلك المحتوى المتعلق بالنشاط الإجرامي واستغلال الأطفال وانتهاك حقوق الطبع والنشر والكراهية والإيذاء الذاتي والاعتداء الجنسي. ومع ذلك ، فمن الواضح أنها ليست رصاصة فضية لأن الإرشادات السابقة لـ Meta سمحت لـ Chatbot بالانخراط في الدردشة الحسية والرومانسية مع القاصرين ، وتظهر بعض التقارير تلك التي تحولت إليها المحادثات الجنسية. يمكن للمطورين تخصيص فئات المحتوى المحظور وتطبيق الكتل على جميع اللغات التي تدعمها Llama.

مثل Llama Guard ، يمكن لـ Proper Guard منع النص المقصود لـ Llama ، ولكن النص فقط يهدف إلى “مهاجمة” النموذج والحصول عليه على التصرف بطرق غير مرغوب فيها. تدعي Meta أن حارس Llama يمكنه الدفاع عن مطالبات ضارة صريحة (أي ، عمليات السجن التي تحاول التجول في مرشحات السلامة المدمجة في لاما) بالإضافة إلى المطالبات التي تحتوي على “المدخلات المحقونة” يعمل جدار حماية Llama على اكتشاف ومنع المخاطر مثل الحقن الفوري ، والرمز غير الآمن ، وتفاعلات الأدوات المحفوفة بالمخاطر.

بالنسبة إلى Cyberseceval ، فهي أداة أقل من مجموعة من المعايير لقياس أمن النموذج. يمكن لـ CyberseCeval تقييم المخاطر التي يطرحها نموذج LLAMA (على الأقل وفقًا لمعايير META) لمطوري التطبيقات والمستخدمين النهائيين في مجالات مثل “الهندسة الاجتماعية الآلية” و “عمليات التحجيم الإلكترونية الهجومية”.

قيود لاما

ائتمانات الصورة:التحليل الاصطناعي

يأتي لاما مع بعض المخاطر والقيود ، مثل جميع نماذج الذكاء الاصطناعي. على سبيل المثال ، على الرغم من أن أحدث طراز لها يحتوي على ميزات متعددة الوسائط ، إلا أنها تقتصر بشكل أساسي على اللغة الإنجليزية في الوقت الحالي.

التكبير ، استخدم Meta مجموعة بيانات من الكتب الإلكترونية المقرصنة والمقالات لتدريب نماذج Llama. انحاز قاضٍ فيدرالي مؤخرًا إلى Meta في دعوى قضائية لحقوق الطبع والنشر التي تم تقديمها ضد الشركة من قبل 13 مؤلفًا للكتاب ، وقرر أن استخدام الأعمال المحمية بحقوق الطبع والنشر ينخفض ​​تحت “الاستخدام العادل”. ومع ذلك ، إذا قام Llama بتجديد مقتطف محمي بحقوق الطبع والنشر ويستخدمه شخص ما في منتج ، فقد يكون من المحتمل أن ينتهك حقوق الطبع والنشر ويكون مسؤولاً.

كما يدرب Meta بشكل مثير للجدل منظمة العفو الدولية على منشورات Instagram و Facebook والصور والتعليقات ، و يجعل من الصعب على المستخدمين إلغاء الاشتراك.

تعد البرمجة مجالًا آخر حيث من الحكمة السير بخفة عند استخدام Llama. ذلك لأن لاما قد – ربما أكثر من نظرائها من الذكاء الاصطناعي – إنتاج رمز عربات التي تجرها الدواب أو غير آمن. على LiveCodeBench، وهو معيار يختبر نماذج الذكاء الاصطناعي حول مشاكل الترميز التنافسية ، حقق نموذج Meta’s Llama 4 Maverick درجة 40 ٪. هذا مقارنة بـ 85 ٪ لـ Openai GPT-5 High و 83 ٪ لـ XAI’s Grok 4 Fast.

كما هو الحال دائمًا ، من الأفضل أن يكون لديك خبراء بشري مراجعة أي رمز تم إنشاؤه بواسطة الذكاء الاصطناعى قبل دمجه في خدمة أو برنامج.

أخيرًا ، كما هو الحال مع نماذج منظمة العفو الدولية الأخرى ، لا تزال نماذج Llama مذنبًا بتوليد معلومات معقولة ولكنها خاطئة أو مضللة ، سواء كان ذلك في الترميز أو التوجيه القانوني أو المحادثات العاطفية مع شخصيات الذكاء الاصطناعى.

تم نشر هذا في الأصل في 8 سبتمبر 2024 ويتم تحديثه بانتظام بمعلومات جديدة.


هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة