Las principales plataformas tecnológicas enfrentan crecientes críticas por sus políticas inconsistentes de moderación de contenido. Cuando se trata de temas controvertidos—eventos geopolíticos, declaraciones de figuras políticas, políticas económicas—plataformas como YouTube a menudo aplican estándares diferentes. La cuestión no es solo *qué* se marca, sino *por qué* cierto contenido enfrenta restricciones mientras que publicaciones similares permanecen intactas. Esta aplicación selectiva genera preocupaciones sobre transparencia y responsabilidad. Para la comunidad Web3 que aboga por alternativas descentralizadas, este patrón resalta por qué importan los sistemas independientes y basados en reglas. Los usuarios merecen claridad: ¿las decisiones de moderación se basan en principios coherentes, o cambian según presiones externas? La cuestión más amplia—si las grandes tecnológicas revelan adecuadamente cómo los algoritmos determinan qué permanece visible—sigue sin resolverse.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 9
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
JustAnotherWalletvip
· 01-21 11:27
La caja negra del algoritmo es realmente absurda, con el mismo contenido algunas personas son bloqueadas y otras aterrizan de manera segura, ¿quién puede soportar esto?
Ver originalesResponder0
CountdownToBrokevip
· 01-20 04:04
ngl El doble estándar en el mecanismo de revisión es demasiado absurdo, ¿así que el algoritmo es solo una caja negra... Esa es la razón de la existencia de web3.
Ver originalesResponder0
PessimisticLayervip
· 01-19 23:15
Me parto de risa, ¿todavía nadie ha logrado realmente resolver esta estrategia de doble estándar en la aplicación de la ley?
Ver originalesResponder0
bridge_anxietyvip
· 01-18 16:06
De verdad, esta doble moral es demasiado evidente, hay comentarios que se eliminan en un segundo y otros que pueden durar mucho tiempo...
Ver originalesResponder0
LootboxPhobiavip
· 01-18 16:03
Por eso Web3 tiene que despegar, las plataformas centralizadas juegan con doble rasero de manera muy astuta.
Ver originalesResponder0
orphaned_blockvip
· 01-18 16:02
Ya estamos en 2024, ¿las grandes empresas todavía juegan a la "selección" en la revisión? Qué risa, esto no es más que una doble moral descarada.

El desarrollo de la inteligencia artificial y la tecnología de encriptación avanza tan rápido, pero la revisión de contenido todavía se queda en la fase de "si me gusta, lo elimino"... web3 es para romper con este ciclo, ¿verdad?

El algoritmo de YouTube, en realidad, es una caja negra, ¿quién sabe quién está cortando en el backstage?

¿Por qué con el mismo tema, el creador A es censurado y el creador B puede publicar libremente? Esa falta de transparencia es simplemente increíble.

¿La descentralización realmente no puede cambiar esto? Cada vez más creo que la gobernanza en la cadena es la única salida.
Ver originalesResponder0
GateUser-26d7f434vip
· 01-18 15:59
Otra vez con la misma historia, YouTube tiene un doble estándar increíble. Algunas cuentas se eliminan de la noche a la mañana, otras se dejan claramente allí, sin que se pueda entender el motivo.
Ver originalesResponder0
UnluckyLemurvip
· 01-18 15:48
La caja negra del algoritmo ha vuelto, esa doble vara de YouTube es realmente increíble, el mismo contenido algunos son bloqueados y otros siguen saltando con total libertad
Ver originalesResponder0
OfflineValidatorvip
· 01-18 15:41
Otra vez con la misma vieja historia, todos pueden ver que los estándares de revisión de YouTube son doble moral, solo que nadie se atreve a decirlo
Ver originalesResponder0
Ver más
  • Anclado