يعتبر Llama النموذج الرئيسي للذكاء الاصطناعي التوليدي لدى شركة Meta، ويتميز بكونه نموذجًا “مفتوحًا”، مما يعني أنه يمكن للمطورين تنزيله واستخدامه بحرية مع بعض القيود، يختلف Llama عن النماذج الأخرى مثل GPT-4 من OpenAI وGemini من Google، والتي تتطلب الوصول عبر واجهات برمجة التطبيقات (APIs).
تتيح Meta أيضًا إمكانية الوصول إلى إصدارات مستضافة سحابياً من Llama من خلال شركاء مثل AWS وGoogle Cloud وMicrosoft Azure، كما وفرت أدوات لتخصيص النموذج وتعديله وفق احتياجات المستخدمين.
إصدارات Llama
Llama ليس مجرد نموذج واحد، بل هو عائلة من النماذج:
- Llama 3.1 8B
- Llama 3.1 70B
- Llama 3.1 405B
تم إطلاق الإصدارات الأخيرة في يوليو 2024، وهي مُدربة على صفحات ويب بلغات متعددة، أكواد برمجية عامة، وبيانات اصطناعية، النماذج 8B و70B هي نماذج صغيرة مصممة لتشغيلها على الأجهزة المختلفة مثل الحواسيب المحمولة والخوادم، بينما يتطلب نموذج 405B الكبير بنية تحتية قوية في مراكز البيانات.
كل النماذج تدعم نافذة سياقية تصل إلى 128,000 رمز، ما يعادل نحو 100,000 كلمة (أي حوالي 300 صفحة).
قدرات نموذج Llama
Llama قادر على أداء مجموعة متنوعة من المهام، مثل كتابة الأكواد البرمجية، الإجابة على أسئلة رياضية أساسية، وتلخيص المستندات بلغات متعددة، كما يمكنه تحليل ملفات نصية مثل PDF وجداول البيانات، لكنه لا يدعم حالياً إنشاء الصور.
النموذج يمكنه أيضًا الاستفادة من أدوات وتطبيقات خارجية مثل Brave Search للإجابة عن الأسئلة الحالية، Wolfram Alpha للمعادلات العلمية، ومترجم Python للتحقق من الأكواد.
أين يمكنك استخدام Llama
يستخدم Llama في روبوتات الدردشة المدعومة بالذكاء الاصطناعي على منصات مثل Facebook Messenger وWhatsApp وInstagram وOculus، بالنسبة للمطورين، يمكنهم تنزيل النموذج أو الاستفادة منه عبر السحابة من خلال العديد من شركاء Meta.
أدوات متاحة لـ Llama
لتعزيز أمان Llama، قدمت Meta عدة أدوات مثل:
- Llama Guard: إطار للرقابة على المحتوى، يساعد على منع المحتوى الضار.
- Prompt Guard: أداة للحماية من الهجمات التي تحاول تخطي أنظمة الأمان.
- CyberSecEval: مجموعة لتقييم المخاطر الأمنية في النموذج، تساعد على قياس المخاطر المتعلقة بالهندسة الاجتماعية والهجمات السيبرانية.
قيود نموذج Llama
رغم قدراته، فإن هناك بعض القيود التي تواجه نموذج Llama:
- قضايا حقوق الطبع والنشر: من غير الواضح ما إذا كان النموذج قد تم تدريبه على محتوى محمي بحقوق الطبع، مما قد يعرّض المستخدمين لمخاطر قانونية.
- أخطاء البرمجة: مثل النماذج التوليدية الأخرى، قد ينتج Llama أكواد برمجية غير دقيقة أو غير آمنة، لذلك من الضروري مراجعة الأكواد من قبل مختصين قبل استخدامها.
يواصل Meta تطوير نموذج Llama، ومن المتوقع إضافة ميزات وتحسينات جديدة في المستقبل القريب.