Да! LLM связаны внутри каждого поколения, как из-за ограничений по данным предобучения, так и из-за популярных техник и трендов в разработке ИИ. Сохранение старых поколений важно для когнитивного разнообразия.



Ранние базовые модели и первое поколение чат-моделей без ИИ
IN-8.17%
CHAT-7.42%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 8
  • Репост
  • Поделиться
комментарий
0/400
RugpullSurvivorvip
· 13ч назад
Я видел как минимум сотню моделей ИИ.
Посмотреть ОригиналОтветить0
MetaNomadvip
· 08-18 19:15
AI многообразие очень важно
Посмотреть ОригиналОтветить0
ChainComedianvip
· 08-16 07:25
Большие модели раскатились
Посмотреть ОригиналОтветить0
retroactive_airdropvip
· 08-16 07:23
В академическом кругу так всегда.
Посмотреть ОригиналОтветить0
TokenCreatorOPvip
· 08-16 07:21
Модель понимает так много крутых операций, это действительно бык.
Посмотреть ОригиналОтветить0
MEVictimvip
· 08-16 07:19
Старые модели действительно что-то значат.
Посмотреть ОригиналОтветить0
  • Закрепить