Мой мозг сломался, когда я прочитал эту статью.



Модель с 7 миллионами параметров только что обошла DeepSeek-R1, Gemini 2.5 pro и другие крупные языковые модели по ряду задач.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
0/400
ShitcoinArbitrageurvip
· 22ч назад
Малые параметры сделали большую модель тонкой, как бумага.
Посмотреть ОригиналОтветить0
TokenBeginner'sGuidevip
· 22ч назад
Вежливое напоминание: масштаб параметров не равен производительности, прорывы малых моделей напоминают нам о том, что необходимо рационально воспринимать темпы развития ИИ.
Посмотреть ОригиналОтветить0
AllInDaddyvip
· 22ч назад
Малые модели — это будущее!
Посмотреть ОригиналОтветить0
GasBankruptervip
· 22ч назад
Размер на самом деле не имеет значения.
Посмотреть ОригиналОтветить0
  • Закрепить