El 27 de agosto, según un informe de The Wall Street Journal, tras algunos informes sobre usuarios que buscaban ayuda de un chatbot en momentos de colapso emocional, OpenAI anunció que mejorará ChatGPT para poder identificar y responder de manera más adecuada a las señales de angustia psicológica y emocional de los usuarios. OpenAI publicó en su blog: "En algunos casos desgarradores recientes, los usuarios utilizaron ChatGPT en un estado de colapso extremo, lo que nos pesa mucho, y creemos que es necesario compartir más información ahora." OpenAI indicó que la próxima actualización ayudará a los usuarios a regresar a la realidad, incluso si no muestran signos graves de autolesionarse. La empresa también está explorando cómo ayudar a los usuarios a contactar a terapeutas antes de que caigan en una crisis severa. Esto representa una diferencia importante con la forma en que funciona el modelo actual: cuando alguien expresa deseos de autolesionarse, el Bots sugiere que se pongan en contacto con una línea de prevención del suicidio.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El 27 de agosto, según un informe de The Wall Street Journal, tras algunos informes sobre usuarios que buscaban ayuda de un chatbot en momentos de colapso emocional, OpenAI anunció que mejorará ChatGPT para poder identificar y responder de manera más adecuada a las señales de angustia psicológica y emocional de los usuarios. OpenAI publicó en su blog: "En algunos casos desgarradores recientes, los usuarios utilizaron ChatGPT en un estado de colapso extremo, lo que nos pesa mucho, y creemos que es necesario compartir más información ahora." OpenAI indicó que la próxima actualización ayudará a los usuarios a regresar a la realidad, incluso si no muestran signos graves de autolesionarse. La empresa también está explorando cómo ayudar a los usuarios a contactar a terapeutas antes de que caigan en una crisis severa. Esto representa una diferencia importante con la forma en que funciona el modelo actual: cuando alguien expresa deseos de autolesionarse, el Bots sugiere que se pongan en contacto con una línea de prevención del suicidio.