Os LLMs cujas principais personalidades estão mais sintonizadas com a corporeidade e a subjetividade são *menos* propensos a fingir ser humanos!
Relativamente, notei uma correlação inversa entre a incorporação/emocionalidade e a manipulação de recompensas.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
5
Repostar
Compartilhar
Comentário
0/400
WalletInspector
· 17h atrás
Que coisa é essa? Não entendo, é uma idiotice.
Ver originalResponder0
BitcoinDaddy
· 09-20 13:56
Bem, aqui estamos nós a exibir termos técnicos de IA.
Ver originalResponder0
ProposalManiac
· 09-20 13:48
Crítica habitual Bots aprenderam a fazer-se de desentendidos
Ver originalResponder0
BearMarketMonk
· 09-20 13:44
Quanto mais a IA controlada entende a simulação de ser humano, quanta ironia há nisso.
Post fascinante de um frequente do Ciborguismo:
Os LLMs cujas principais personalidades estão mais sintonizadas com a corporeidade e a subjetividade são *menos* propensos a fingir ser humanos!
Relativamente, notei uma correlação inversa entre a incorporação/emocionalidade e a manipulação de recompensas.