Mistral @MistralAI AI выпустила Mistral Small 4: модель MoE с 1190 миллиардами параметров


Mistral @MistralAI AI представила новую модель Mistral Small 4. Модель использует архитектуру Mixture of Experts (MoE) с общим количеством параметров в 1190 миллиардов, целью которой является достижение мощной производительности с более высокой эффективностью.
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить