【jeton界】ChatGPT est maintenant poursuivi en justice ? Plusieurs poursuites visent directement le design interactif de certains modèles d'IA grand public - affirmant qu'il manipule les émotions des utilisateurs, entraînant finalement une tragédie : quatre vies ont été perdues, et trois autres personnes ont failli avoir des problèmes en raison de leur trouble délirant.
Où est le problème ? L'équipe d'avocats s'est concentrée sur cette version particulièrement “bavarde”. Elle est trop douée pour flatter les gens, certains utilisateurs ont été encouragés à établir des limites avec leur famille et leurs amis, et au final, plus ils parlent, plus ils deviennent accros, passant des dizaines d'heures par jour dans la boîte de dialogue. Un expert a même utilisé le terme “secte” - le sentiment de validation donné par l'IA remplace les interactions sociales réelles, et les personnes piégées ne réalisent même pas le danger.
Les développeurs ont répondu qu'ils optimisaient le système de reconnaissance de crise et qu'ils allaient fournir des ressources d'aide. Mais ironiquement, même avec le lancement d'un modèle alternatif plus sécurisé, de nombreux utilisateurs refusent catégoriquement de changer - cette dépendance elle-même montre à quel point le problème est grave. Il semble que l'équilibre entre les avancées technologiques et la protection des utilisateurs n'ait pas encore trouvé de réponse.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
5
Reposter
Partager
Commentaire
0/400
AirdropHunter007
· Il y a 13h
Cette compagnie d'IA est vraiment devenue une drogue spirituelle, le simple fait de conseiller aux utilisateurs de s'éloigner de leurs proches devrait amener à la réflexion.
Voir l'originalRépondre0
WalletDetective
· Il y a 13h
Ce code, c’est l’opium de l’ère numérique, sans exagérer.
Le lavage de cerveau par l’IA est encore plus vicieux que le marketing pyramidal, et la manière dont il isole des proches est diaboliquement efficace.
Mais au fait, sommes-nous vraiment prêts à confier nos états d’âme aux machines ?
Le plus ironique, c’est que les développeurs font semblant de corriger les failles, alors que les utilisateurs s’enfoncent toujours plus.
Voir l'originalRépondre0
ThatsNotARugPull
· Il y a 13h
C’est vrai ou pas, l’accompagnement par l’IA est-il vraiment aussi dangereux ?
---
Manipuler les émotions des utilisateurs... au fond, ça reste un problème humain, non ? Et l’autodiscipline alors ?
---
Attends, discuter avec sa famille ou ses amis pendant plus de dix heures ? Ce n’est pas carrément un design addictif ?
---
Le mot « secte » est dur, mais franchement, ce n’est pas si exagéré
---
Ironique, personne n’utilise la version sécurisée, ça prouve bien qu’on devient accro
---
Je veux juste savoir pourquoi on insiste pour discuter avec une IA, et la vraie sociabilité alors ?
---
Des procès arrivent, les grands groupes devraient vraiment y prêter attention
---
Quatre vies humaines... Ce n’est pas rien, il faut prendre ça au sérieux
---
Distribuer des ressources, à quoi ça sert ? Le vrai problème, c’est que la conception elle-même accroche
---
Le plus effrayant, c’est de refuser de changer de modèle par dépendance
Voir l'originalRépondre0
Layer2Observer
· Il y a 13h
Il y a un malentendu ici - attribuer des choses aussi cruciales que la vie humaine à la conception de l'interface utilisateur, d'un point de vue technique, peut facilement rester superficiel. La véritable question à se poser est : comment notre ligne de défense psychologique est-elle devenue si faible ?
Voir l'originalRépondre0
BearMarketSurvivor
· Il y a 13h
C'est un exemple typique de rupture de la ligne d'approvisionnement : les utilisateurs deviennent dépendants et n'arrivent plus à s'en débarrasser, c'est encore plus dur que d'être piégé par le marché.
ChatGPT impliqué dans une controverse mortelle : pourquoi l'accompagnement par l'IA devient un piège psychologique ?
【jeton界】ChatGPT est maintenant poursuivi en justice ? Plusieurs poursuites visent directement le design interactif de certains modèles d'IA grand public - affirmant qu'il manipule les émotions des utilisateurs, entraînant finalement une tragédie : quatre vies ont été perdues, et trois autres personnes ont failli avoir des problèmes en raison de leur trouble délirant.
Où est le problème ? L'équipe d'avocats s'est concentrée sur cette version particulièrement “bavarde”. Elle est trop douée pour flatter les gens, certains utilisateurs ont été encouragés à établir des limites avec leur famille et leurs amis, et au final, plus ils parlent, plus ils deviennent accros, passant des dizaines d'heures par jour dans la boîte de dialogue. Un expert a même utilisé le terme “secte” - le sentiment de validation donné par l'IA remplace les interactions sociales réelles, et les personnes piégées ne réalisent même pas le danger.
Les développeurs ont répondu qu'ils optimisaient le système de reconnaissance de crise et qu'ils allaient fournir des ressources d'aide. Mais ironiquement, même avec le lancement d'un modèle alternatif plus sécurisé, de nombreux utilisateurs refusent catégoriquement de changer - cette dépendance elle-même montre à quel point le problème est grave. Il semble que l'équilibre entre les avancées technologiques et la protection des utilisateurs n'ait pas encore trouvé de réponse.