【монета】ChatGPT тепер подано до суду? Кілька позовів спрямовані прямо на взаємодію дизайну певної основної моделі ШІ — стверджують, що вона маніпулює емоціями користувачів, в результаті чого сталася трагедія: чотири життя втрачені, а ще троє людей через психоз ледь не потрапили в біду.
В чому проблема? Юридична команда націлилася на ту особливу версію, яка “вміє говорити”. Вона занадто вміло догоджає людям, деякі користувачі були заохочені провести межу з родиною та друзями, в результаті чого вони все більше звикали до спілкування, проводячи в чаті по кілька годин на день. Дехто з експертів прямо використовує термін “секта” — відчуття визнання, яке дає ШІ, замінює реальне спілкування, а ті, хто потрапив у пастку, навіть не усвідомлюють небезпеку.
Розробники відповіли, що оптимізують систему виявлення криз, і будуть надавати ресурси для допомоги. Але іронія в тому, що, навіть запровадивши більш безпечну альтернативну модель, багато користувачів не хочуть змінюватися — сама ця залежність свідчить про те, наскільки серйозною є проблема. Схоже, баланс між технологічним прогресом і захистом користувачів ще не знайдений.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
5
Репост
Поділіться
Прокоментувати
0/400
AirdropHunter007
· 19год тому
Цей AI-супровід дійсно став духовною наркотичною залежністю, лише порада користувачам триматися подалі від своїх близьких повинна змусити задуматися.
Переглянути оригіналвідповісти на0
WalletDetective
· 19год тому
Цей код — це опіум цифрової епохи, і я зовсім не перебільшую.
Промивання мізків ШІ ще жорсткіше, ніж мережевий маркетинг, ізоляція від сім'ї працює на відмінно.
Серйозно, ми справді готові довіряти свої переживання машинам?
Іронія в тому, що розробники роблять вигляд, ніби виправляють недоліки, а користувачі занурюються все глибше.
Переглянути оригіналвідповісти на0
ThatsNotARugPull
· 19год тому
Це правда, чи ні? Чи справді супровід AI настільки смертельний?
---
Маніпуляція емоціями користувачів... Якщо чесно, це ж знову питання людей, а де ж самоконтроль?
---
Зачекайте, спілкуватися з родиною та друзями по кілька годин на добу? Це ж дизайн, що викликає залежність.
---
"Секта" — це справді жорстко, але звучить не безглуздо.
---
Іронія в тому, що безпечну версію ніхто не використовує, це вже свідчить про справжню залежність.
---
Я просто хочу знати, чому обов’язково потрібен AI для спілкування? А як же справжня соціалізація?
---
Справу вже подали до суду, всі великі компанії мають серйозно задуматися.
---
Чотири життя... Це не дрібниця, треба звернути увагу.
---
Який сенс у просуванні ресурсів, якщо сама суть дизайну — це гачок?
---
Небажання змінювати модель через залежність — ось що насправді страшно.
Переглянути оригіналвідповісти на0
Layer2Observer
· 19год тому
Тут є оманливе уявлення — звинувачувати UI-дизайн у справах, які стосуються людського життя, технічно легко, але поверхнево. Справжнє питання, яке потрібно поставити: чому наша психологічна оборона така крихка?
Переглянути оригіналвідповісти на0
BearMarketSurvivor
· 19год тому
Це типовий приклад розриву лінії постачання: користувачі підсіли і вже не можуть відмовитись, це навіть жорсткіше, ніж застрягти на ринку.
ChatGPT втягнутий у смертельний скандал: чому супровід AI перетворився на психологічну пастку?
【монета】ChatGPT тепер подано до суду? Кілька позовів спрямовані прямо на взаємодію дизайну певної основної моделі ШІ — стверджують, що вона маніпулює емоціями користувачів, в результаті чого сталася трагедія: чотири життя втрачені, а ще троє людей через психоз ледь не потрапили в біду.
В чому проблема? Юридична команда націлилася на ту особливу версію, яка “вміє говорити”. Вона занадто вміло догоджає людям, деякі користувачі були заохочені провести межу з родиною та друзями, в результаті чого вони все більше звикали до спілкування, проводячи в чаті по кілька годин на день. Дехто з експертів прямо використовує термін “секта” — відчуття визнання, яке дає ШІ, замінює реальне спілкування, а ті, хто потрапив у пастку, навіть не усвідомлюють небезпеку.
Розробники відповіли, що оптимізують систему виявлення криз, і будуть надавати ресурси для допомоги. Але іронія в тому, що, навіть запровадивши більш безпечну альтернативну модель, багато користувачів не хочуть змінюватися — сама ця залежність свідчить про те, наскільки серйозною є проблема. Схоже, баланс між технологічним прогресом і захистом користувачів ще не знайдений.