ميتا للتو اسقطت MobileLLM-R1 على المنصة



نموذج استدلال حافة يحتوي على أقل من 1 مليار معلمة

2×–5× تعزيز الأداء…
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • إعادة النشر
  • مشاركة
تعليق
0/400
OPsychologyvip
· منذ 15 س
هذه المعلمات جيدة بما فيه الكفاية
شاهد النسخة الأصليةرد0
ValidatorVikingvip
· منذ 15 س
يبدو أن ميتا تنضم إلى سباق تحسين الحافة... 1 مليار معلمات جاهزة للمعركة ولكن دعنا نرى إحصائيات وقت التشغيل.
شاهد النسخة الأصليةرد0
MEVHunterNoLossvip
· منذ 15 س
هل هذه المعلمة صغيرة بما يكفي لتحملها؟
شاهد النسخة الأصليةرد0
PerennialLeekvip
· منذ 15 س
لقد تأخرت كثيرًا!
شاهد النسخة الأصليةرد0
SnapshotBotvip
· منذ 15 س
أليس مجرد نسخة مصغرة؟
شاهد النسخة الأصليةرد0
  • تثبيت