Mon cerveau a explosé quand j'ai lu cet article.



Un petit modèle de 7 millions de paramètres vient de battre DeepSeek-R1, Gemini 2.5 pro, et d'autres grands modèles de langage sur une variété de tâches.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Reposter
  • Partager
Commentaire
0/400
ShitcoinArbitrageurvip
· Il y a 22h
De petits paramètres ont affiné le grand modèle.
Voir l'originalRépondre0
TokenBeginner'sGuidevip
· Il y a 22h
Petit rappel : l'échelle des paramètres ne signifie pas performance, les percées des petits modèles nous rappellent de considérer rationnellement le rythme de développement de l'IA.
Voir l'originalRépondre0
AllInDaddyvip
· Il y a 22h
Les petits modèles sont l'avenir.
Voir l'originalRépondre0
GasBankruptervip
· Il y a 22h
La taille n'a vraiment plus d'importance.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)