vkhosla présente le modèle 1-bit Bonsai 8B, avec une occupation mémoire de seulement 1,15 Go

Actualités ME : Message du 1er avril (UTC+8). Récemment, l’auteur vkhosla a présenté sur les réseaux sociaux un modèle à poids 1 bit appelé 1-bit Bonsai 8B. D’après sa description, ce modèle n’occupe que 1,15 Go de mémoire et sa densité d’intelligence (intelligence density) serait supérieure de plus de 10 fois à celle de son modèle correspondant en pleine précision. Les points de vue évoqués dans l’article indiquent qu’en matériel embarqué, la taille de ce modèle a été réduite de 14 fois, sa vitesse a augmenté de 8 fois et son efficacité énergétique a progressé d’un facteur de 5. En même temps, par rapport aux autres modèles, il resterait compétitif. La nouvelle mentionne également que ce modèle présente une meilleure compressibilité, une vitesse plus élevée, un volume plus faible et une efficacité énergétique supérieure que le modèle annoncé par Google la veille. Le texte original ne fournit pas de référence de comparaison précise des performances du modèle, ni l’entité à l’origine du lancement, ni les détails de l’implémentation technique, ni les résultats d’évaluation complets. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler