Mi cerebro se rompió cuando leí este documento.



Un pequeño modelo de 7 millones de parámetros acaba de superar a DeepSeek-R1, Gemini 2.5 pro y otros grandes modelos de lenguaje en una variedad de tareas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Republicar
  • Compartir
Comentar
0/400
ShitcoinArbitrageurvip
· hace22h
Los parámetros pequeños han delgado el gran modelo como un papel.
Ver originalesResponder0
TokenBeginner'sGuidevip
· hace22h
Pequeño recordatorio: la escala de parámetros no es igual al rendimiento, el avance de los modelos pequeños nos recuerda que debemos ver con racionalidad el ritmo de desarrollo de la IA.
Ver originalesResponder0
AllInDaddyvip
· hace22h
Los pequeños modelos son el futuro.
Ver originalesResponder0
GasBankruptervip
· hace22h
El tamaño realmente no importa.
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)