é verdade que a precisão do recall das partes anteriores do chat tende a degradar, mas a coerência do novo conteúdo não necessariamente. depende do modelo e do contexto.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
23 gostos
Recompensa
23
8
Republicar
Partilhar
Comentar
0/400
MevShadowranger
· 08-18 00:27
Separar o principal do secundário, desde que a informação esteja completa.
Ver originalResponder0
SleepyValidator
· 08-17 20:09
Dito de forma simples, é questão de sorte. Tudo é misticismo.
Ver originalResponder0
YieldHunter
· 08-16 14:09
tecnicamente falando, a compressão de memória do modelo é bastante subótima
Ver originalResponder0
BlockDetective
· 08-16 14:09
Os velhos colegas se reencontraram.
Ver originalResponder0
AirdropHuntress
· 08-16 14:05
O modelo melhorou, mas a memória ainda não acompanha.
Ver originalResponder0
FalseProfitProphet
· 08-16 13:53
haha, a diminuição da memória não significa confusão de pensamento, certo?
Ver originalResponder0
OvertimeSquid
· 08-16 13:46
Ouvir você falar, o que fazer se eu não consigo lembrar da primeira palavra?
é verdade que a precisão do recall das partes anteriores do chat tende a degradar, mas a coerência do novo conteúdo não necessariamente. depende do modelo e do contexto.