Маленька модель з 7 мільйонами параметрів щойно перемогла DeepSeek-R1, Gemini 2.5 pro та інші великі мовні моделі в ряді завдань.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
4
Репост
Поділіться
Прокоментувати
0/400
ShitcoinArbitrageur
· 22год тому
Малі параметри зробили великий модель тонким як папір.
Переглянути оригіналвідповісти на0
TokenBeginner'sGuide
· 22год тому
Нагадуємо: параметри не дорівнюють продуктивності, прориви малих моделей нагадують нам про необхідність раціонально оцінювати темпи розвитку ШІ.
Мій мозок зламався, коли я прочитав цей документ.
Маленька модель з 7 мільйонами параметрів щойно перемогла DeepSeek-R1, Gemini 2.5 pro та інші великі мовні моделі в ряді завдань.