Мій мозок зламався, коли я прочитав цей документ.



Маленька модель з 7 мільйонами параметрів щойно перемогла DeepSeek-R1, Gemini 2.5 pro та інші великі мовні моделі в ряді завдань.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Репост
  • Поділіться
Прокоментувати
0/400
ShitcoinArbitrageurvip
· 22год тому
Малі параметри зробили великий модель тонким як папір.
Переглянути оригіналвідповісти на0
TokenBeginner'sGuidevip
· 22год тому
Нагадуємо: параметри не дорівнюють продуктивності, прориви малих моделей нагадують нам про необхідність раціонально оцінювати темпи розвитку ШІ.
Переглянути оригіналвідповісти на0
AllInDaddyvip
· 22год тому
Малі моделі - це майбутнє!
Переглянути оригіналвідповісти на0
GasBankruptervip
· 22год тому
Розмір насправді не має значення.
Переглянути оригіналвідповісти на0
  • Закріпити