لقد انهار عقلي عندما قرأت هذه الورقة.



نموذج صغير يحتوي على 7 مليون معلمة قد تغلب للتو على DeepSeek-R1 و Gemini 2.5 pro ونماذج لغوية كبيرة أخرى في مجموعة متنوعة من المهام.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • إعادة النشر
  • مشاركة
تعليق
0/400
ShitcoinArbitrageurvip
· منذ 22 س
المعلمات الصغيرة جعلت النموذج الكبير ورقة رقيقة
شاهد النسخة الأصليةرد0
TokenBeginner'sGuidevip
· منذ 22 س
تذكير لطيف: حجم المعلمات لا يعادل الأداء، إن نجاح النماذج الصغيرة يذكّرنا بضرورة النظر بعقلانية إلى وتيرة تطور الذكاء الاصطناعي
شاهد النسخة الأصليةرد0
AllInDaddyvip
· منذ 22 س
النماذج الصغيرة هي المستقبل
شاهد النسخة الأصليةرد0
GasBankruptervip
· منذ 22 س
لا يهم حقًا الحجم
شاهد النسخة الأصليةرد0
  • تثبيت