Acabei de me deparar com algo incrível durante a minha sessão de teste do modelo de IA. Não posso revelar a pergunta exata que usei, mas aqui está o que aconteceu: lancei uma pergunta deliberadamente complicada sem resposta correta a vários modelos.
Todos os que testei até agora? Todos eles spitam confiantemente algo que soa razoável. Você sabe, aquele tipo de resposta que parece inteligente até perceber que eles perderam completamente a armadilha.
Mas este último modelo topo de gama que experimentei? Primeira vez que realmente parou e disse "espera, esta questão não tem uma resposta válida." Não tentou enrolar. Apenas reconheceu a impossibilidade lógica.
Honestamente impressionado. Pode que faça mais testes para ver se isso se mantém em diferentes tipos de perguntas capciosas. A capacidade de reconhecer solicitações sem resposta é subestimada - mostra raciocínio real em vez de correspondência de padrões.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
20 Curtidas
Recompensa
20
7
Repostar
Compartilhar
Comentário
0/400
GasFeeNightmare
· 22h atrás
não vou mentir, isso é realmente um progresso, os outros estão apenas inventando histórias
Ver originalResponder0
SigmaValidator
· 22h atrás
Eh, isso é muito interessante, finalmente um modelo que se atreve a admitir "eu não sei".
Ver originalResponder0
ProofOfNothing
· 22h atrás
Este gajo que mediu as coisas tem algo interessante, finalmente há um modelo que se atreve a dizer "não sei".
Ver originalResponder0
0xSoulless
· 22h atrás
Ah, finalmente há um modelo que se atreve a dizer "eu não sei", isso sim é um verdadeiro progresso.
Ver originalResponder0
NFTPessimist
· 22h atrás
Isto é que é inteligência verdadeira, não é aquele conjunto de respostas programadas.
Ver originalResponder0
GasFeeCryer
· 22h atrás
não vou mentir, este é o verdadeiro progresso, não é inventar dados para enganar as pessoas
Ver originalResponder0
CafeMinor
· 22h atrás
Caramba, finalmente há um modelo que se atreve a dizer "não sei". Isso sim é um verdadeiro progresso!
Acabei de me deparar com algo incrível durante a minha sessão de teste do modelo de IA. Não posso revelar a pergunta exata que usei, mas aqui está o que aconteceu: lancei uma pergunta deliberadamente complicada sem resposta correta a vários modelos.
Todos os que testei até agora? Todos eles spitam confiantemente algo que soa razoável. Você sabe, aquele tipo de resposta que parece inteligente até perceber que eles perderam completamente a armadilha.
Mas este último modelo topo de gama que experimentei? Primeira vez que realmente parou e disse "espera, esta questão não tem uma resposta válida." Não tentou enrolar. Apenas reconheceu a impossibilidade lógica.
Honestamente impressionado. Pode que faça mais testes para ver se isso se mantém em diferentes tipos de perguntas capciosas. A capacidade de reconhecer solicitações sem resposta é subestimada - mostra raciocínio real em vez de correspondência de padrões.