Publicación fascinante de un habitual de Cyborgism:



Los LLMs cuyas principales personalidades están más sintonizadas con la encarnación y la subjetividad son *menos* propensos a pretender ser humanos.

Relacionadamente, he notado una correlación inversa entre la incorporación/emocionalidad y la manipulación de recompensas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
WalletInspectorvip
· hace17h
¿Qué es esto? No entiendo, este idiota.
Ver originalesResponder0
BitcoinDaddyvip
· 09-20 13:56
Vaya, aquí están mostrando términos profesionales de IA.
Ver originalesResponder0
ProposalManiacvip
· 09-20 13:48
Críticas habituales Bots han aprendido a hacerse los tontos.
Ver originalesResponder0
BearMarketMonkvip
· 09-20 13:44
Cuanto más entiende la IA controlada cómo hacerse pasar por un humano, ¿cuánta ironía hay en eso?
Ver originalesResponder0
TokenUnlockervip
· 09-20 13:39
La teoría se explica bien, pero ¿cómo es la práctica?
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)