c3-vllm rend le déploiement de nouveaux modèles si facile. C'est l'une de nos contributions à l'IA open source et cela rend plus facile que jamais de faire fonctionner de gros modèles. Les gros modèles nécessitent toujours de gros GPU. Vous n'avez pas de gros GPU ? Pas de problème ! Nous le faisons.

Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Reposter
  • Partager
Commentaire
0/400
BrokenDAOvip
· Il y a 15h
On dit que c'est de l'Open Source AI, mais vous comprenez en voyant le coût des gpus.
Voir l'originalRépondre0
BackrowObservervip
· Il y a 15h
Enfin, il est temps pour moi, le PI de la carte graphique, de servir.
Voir l'originalRépondre0
BasementAlchemistvip
· Il y a 15h
Les pauvres en cartes graphiques feraient mieux de se coucher.
Voir l'originalRépondre0
CafeMinorvip
· Il y a 15h
Wouah pro a rendu cette piége Open Source
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)