【比推】وفقًا للتقارير، بعد ظهور بعض التقارير حول طلب المستخدمين المساعدة من بوتات الدردشة في أوقات الانهيار العاطفي، أعلنت OpenAI أنها ستعمل على تحسين ChatGPT ليتعرف بشكل أفضل ويستجيب للإشارات المتعلقة بمشاكل الصحة النفسية والعاطفية للمستخدمين. نشرت OpenAI في مدونتها: في بعض الحالات المؤلمة التي حدثت مؤخرًا، استخدم المستخدمون ChatGPT في حالة انهيار شديد، وهذا جعلنا نشعر بثقل كبير، ونعتقد أنه من الضروري الآن مشاركة المزيد من المعلومات.
أفادت OpenAI أن التحديثات القادمة ستساعد المستخدمين على العودة إلى الواقع، حتى لو لم يظهروا علامات خطيرة على إيذاء الذات. كما تستكشف الشركة كيفية مساعدة المستخدمين في الاتصال بمعالج نفسي قبل أن يدخلوا في أزمة خطيرة. وهذا يختلف اختلافًا كبيرًا عن الطريقة التي يعمل بها النموذج الحالي: عندما يعبر شخص ما عن رغبة في إيذاء نفسه، يقترح الروبوتات عليهم الاتصال بخطوط المساعدة للانتحار.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 8
أعجبني
8
5
إعادة النشر
مشاركة
تعليق
0/400
ConsensusDissenter
· 08-28 08:10
أه، لذا أصبح نصف طبيب نفساني أيضًا
شاهد النسخة الأصليةرد0
SatoshiLegend
· 08-27 13:52
البلوكتشين لا يثق في المشاعر الإنسانية، 1+1=2 هو الحقيقة النهائية
شاهد النسخة الأصليةرد0
ValidatorVibes
· 08-27 13:52
الحوكمة الذكية اللامركزية هي الطريقة الوحيدة للمضي قدماً
ستقوم ChatGPT بالترقية للتعرف على مشاعر انزعاج المستخدمين. وقد تعهدت OpenAI بتحسين الاستجابة.
【比推】وفقًا للتقارير، بعد ظهور بعض التقارير حول طلب المستخدمين المساعدة من بوتات الدردشة في أوقات الانهيار العاطفي، أعلنت OpenAI أنها ستعمل على تحسين ChatGPT ليتعرف بشكل أفضل ويستجيب للإشارات المتعلقة بمشاكل الصحة النفسية والعاطفية للمستخدمين. نشرت OpenAI في مدونتها: في بعض الحالات المؤلمة التي حدثت مؤخرًا، استخدم المستخدمون ChatGPT في حالة انهيار شديد، وهذا جعلنا نشعر بثقل كبير، ونعتقد أنه من الضروري الآن مشاركة المزيد من المعلومات.
أفادت OpenAI أن التحديثات القادمة ستساعد المستخدمين على العودة إلى الواقع، حتى لو لم يظهروا علامات خطيرة على إيذاء الذات. كما تستكشف الشركة كيفية مساعدة المستخدمين في الاتصال بمعالج نفسي قبل أن يدخلوا في أزمة خطيرة. وهذا يختلف اختلافًا كبيرًا عن الطريقة التي يعمل بها النموذج الحالي: عندما يعبر شخص ما عن رغبة في إيذاء نفسه، يقترح الروبوتات عليهم الاتصال بخطوط المساعدة للانتحار.