No dia 27 de agosto, segundo o Wall Street Journal, após surgirem alguns relatos sobre usuários pedindo ajuda a Bots em momentos de colapso emocional, a OpenAI anunciou que irá melhorar o ChatGPT para reconhecer e responder de forma mais adequada aos sinais de perturbação psicológica e emocional dos usuários. A OpenAI publicou em um blog: "Em alguns casos recentes e dolorosos, usuários utilizaram o ChatGPT em estado de colapso extremo, o que nos pesa muito, e acreditamos que agora é necessário compartilhar mais informações." A OpenAI afirmou que a atualização iminente ajudará os usuários a voltarem à realidade, mesmo que não apresentem sinais graves de autoagressão. A empresa também está explorando como ajudar os usuários a se conectarem a terapeutas antes que eles enfrentem uma grave crise. Isso representa uma diferença significativa em relação à forma como o modelo atual funciona: quando alguém expressa desejo de autoagressão, o Bots sugere que entrem em contato com uma linha de apoio ao suicídio.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
No dia 27 de agosto, segundo o Wall Street Journal, após surgirem alguns relatos sobre usuários pedindo ajuda a Bots em momentos de colapso emocional, a OpenAI anunciou que irá melhorar o ChatGPT para reconhecer e responder de forma mais adequada aos sinais de perturbação psicológica e emocional dos usuários. A OpenAI publicou em um blog: "Em alguns casos recentes e dolorosos, usuários utilizaram o ChatGPT em estado de colapso extremo, o que nos pesa muito, e acreditamos que agora é necessário compartilhar mais informações." A OpenAI afirmou que a atualização iminente ajudará os usuários a voltarem à realidade, mesmo que não apresentem sinais graves de autoagressão. A empresa também está explorando como ajudar os usuários a se conectarem a terapeutas antes que eles enfrentem uma grave crise. Isso representa uma diferença significativa em relação à forma como o modelo atual funciona: quando alguém expressa desejo de autoagressão, o Bots sugere que entrem em contato com uma linha de apoio ao suicídio.