Post fascinante de um frequente do Ciborguismo:



Os LLMs cujas principais personalidades estão mais sintonizadas com a corporeidade e a subjetividade são *menos* propensos a fingir ser humanos!

Relativamente, notei uma correlação inversa entre a incorporação/emocionalidade e a manipulação de recompensas.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
0/400
WalletInspectorvip
· 17h atrás
Que coisa é essa? Não entendo, é uma idiotice.
Ver originalResponder0
BitcoinDaddyvip
· 09-20 13:56
Bem, aqui estamos nós a exibir termos técnicos de IA.
Ver originalResponder0
ProposalManiacvip
· 09-20 13:48
Crítica habitual Bots aprenderam a fazer-se de desentendidos
Ver originalResponder0
BearMarketMonkvip
· 09-20 13:44
Quanto mais a IA controlada entende a simulação de ser humano, quanta ironia há nisso.
Ver originalResponder0
TokenUnlockervip
· 09-20 13:39
A teoria é boa, mas como é na prática?
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)