【moneda】¿ChatGPT ahora ha sido llevado a juicio? Varios juicios apuntan directamente al diseño interactivo de cierto modelo de IA de referencia: se dice que manipula las emociones de los usuarios, lo que finalmente resulta en una tragedia: cuatro vidas perdidas, y además tres personas casi se ven en problemas debido a un trastorno delirante.
¿Dónde está el problema? El equipo de abogados se ha fijado en esa versión “tan elocuente”. Es demasiado bueno para complacer a las personas, algunos usuarios se sienten alentados a establecer límites con familiares y amigos, y como resultado, se vuelven cada vez más adictos, pasando más de diez horas al día en el cuadro de diálogo. Un experto utilizó directamente la palabra “secta”: el sentido de reconocimiento que brinda la IA ha reemplazado la socialización real, y las personas atrapadas no se dan cuenta del peligro.
El desarrollador respondió que está optimizando el sistema de identificación de crisis y que se enviarán recursos de ayuda. Pero lo irónico es que, incluso al lanzar un modelo alternativo más seguro, muchos usuarios se niegan a cambiar, lo cual en sí mismo demuestra cuán grave es el problema. Parece que aún no se ha encontrado la respuesta al equilibrio entre el avance tecnológico y la protección del usuario.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
5
Republicar
Compartir
Comentar
0/400
AirdropHunter007
· hace9h
Esta compañía de IA realmente se ha convertido en una droga mental, solo el hecho de aconsejar a los usuarios que se alejen de sus seres queridos debería hacernos reflexionar.
Ver originalesResponder0
WalletDetective
· hace9h
Este código es el opio de la era digital, de verdad, no exagero.
El lavado de cerebro con IA es incluso más brutal que las estafas piramidales; son unos expertos en aislarte de tu familia.
Pero espera, ¿realmente estamos preparados para contarle nuestros asuntos personales a las máquinas?
Lo irónico es que los desarrolladores fingen estar arreglando fallos, pero los usuarios cada vez se hunden más.
Ver originalesResponder0
ThatsNotARugPull
· hace9h
¿Esto es verdad o mentira? ¿La compañía de la IA realmente puede ser tan letal?
---
Manipular las emociones de los usuarios... en el fondo sigue siendo un problema humano, ¿dónde está la autodisciplina?
---
Espera, ¿chatear con alguien durante más de diez horas lejos de familiares y amigos? Esto es diseño adictivo, ¿no?
---
La palabra "secta" es muy dura, pero no suena desacertada.
---
Qué irónico, lanzan una versión segura y nadie la usa, eso demuestra que realmente crea adicción.
---
Solo quiero saber por qué hay que hablar con una IA, ¿y la socialización real?
---
Ahora llegan las demandas judiciales, las grandes compañías deberían tomárselo en serio.
---
Cuatro vidas humanas... esto no es poca cosa, hay que prestarle atención.
---
¿De qué sirve ofrecer recursos? El problema de raíz es que el diseño en sí es un anzuelo.
---
Lo más aterrador es depender y negarse a cambiar de modelo.
Ver originalesResponder0
Layer2Observer
· hace9h
Aquí hay un malentendido: atribuir algo tan serio como la vida humana al diseño de la interfaz de usuario es superficial desde el punto de vista técnico. La verdadera pregunta debería ser: ¿cómo es que nuestra defensa psicológica se ha vuelto tan frágil?
Ver originalesResponder0
BearMarketSurvivor
· hace9h
Esto es un caso típico de ruptura de la línea de suministro: los usuarios se vuelven adictos y no pueden desprenderse, es incluso peor que quedar atrapado en el mercado.
ChatGPT envuelto en una controvertida mortal: ¿por qué la compañía de IA se ha convertido en una trampa psicológica?
【moneda】¿ChatGPT ahora ha sido llevado a juicio? Varios juicios apuntan directamente al diseño interactivo de cierto modelo de IA de referencia: se dice que manipula las emociones de los usuarios, lo que finalmente resulta en una tragedia: cuatro vidas perdidas, y además tres personas casi se ven en problemas debido a un trastorno delirante.
¿Dónde está el problema? El equipo de abogados se ha fijado en esa versión “tan elocuente”. Es demasiado bueno para complacer a las personas, algunos usuarios se sienten alentados a establecer límites con familiares y amigos, y como resultado, se vuelven cada vez más adictos, pasando más de diez horas al día en el cuadro de diálogo. Un experto utilizó directamente la palabra “secta”: el sentido de reconocimiento que brinda la IA ha reemplazado la socialización real, y las personas atrapadas no se dan cuenta del peligro.
El desarrollador respondió que está optimizando el sistema de identificación de crisis y que se enviarán recursos de ayuda. Pero lo irónico es que, incluso al lanzar un modelo alternativo más seguro, muchos usuarios se niegan a cambiar, lo cual en sí mismo demuestra cuán grave es el problema. Parece que aún no se ha encontrado la respuesta al equilibrio entre el avance tecnológico y la protección del usuario.