Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La Paradoja del Mercenario: Cómo una débil gobernanza de la IA podría permitir que los sistemas autónomos tomen el control, como advierte Harari
El historiador Yuval Noah Harari ha lanzado una alarmante advertencia en el Foro Económico Mundial: la humanidad corre el riesgo de perder el control sobre su ventaja definitoria—el lenguaje—a medida que los sistemas de inteligencia artificial pasan de ser herramientas pasivas a agentes activos y autónomos. Pero la advertencia lleva un paralelismo inquietante que merece un análisis más profundo: la comparación con mercenarios históricos y la cuestión de si los gobiernos concederán accidentalmente a estos sistemas un estatus legal que les permita operar sin restricciones, al igual que lo hicieron en su momento los ejércitos privados.
La preocupación central no es meramente técnica. Es institucional y urgente.
El lenguaje es el superpoder de la humanidad—Hasta que los sistemas de IA se vuelvan autónomos
Según Harari, el lenguaje no es solo una herramienta de comunicación. Es el mecanismo mediante el cual los humanos coordinaron a una escala sin precedentes—miles, millones, miles de millones de desconocidos cooperando a través del tiempo y el espacio. Esta superpotencia lingüística permitió a nuestra especie construir imperios, religiones, sistemas legales y mercados que funcionan mediante narrativas y acuerdos compartidos.
Sin embargo, los sistemas de IA ahora operan dentro del lenguaje a una escala que los humanos no pueden igualar. No son simples motores de búsqueda o algoritmos de recomendación; son agentes autónomos que generan, manipulan y sintetizan texto de manera dinámica. Leen, retienen y sintetizan bibliotecas enteras de escritos—y cada vez más, lo hacen sin instrucciones humanas directas en cada paso. Este cambio de herramienta a agente altera fundamentalmente el perfil de riesgo.
“Estamos entrando en una era donde las máquinas no solo ayudan a los humanos, sino que interpretan, crean y moldean el lenguaje mismo,” como ha llegado a reconocer la comunidad de investigación en IA en general. Las implicaciones para sistemas construidos casi enteramente sobre palabras son profundas.
De la ley a la religión: cómo los sistemas basados en palabras enfrentan la disrupción de la IA
Tres pilares de la civilización humana dependen casi por completo del lenguaje: los códigos legales, las religiones organizadas y los mercados financieros. Cada uno representa un sistema donde la interpretación, la autoridad y la legitimidad fluyen a través del texto.
Consideremos las instituciones religiosas. Judaísmo, cristianismo e islam—religiones fundamentadas en textos sagrados que abarcan miles de años—podrían enfrentarse a un desafío sin precedentes. Un sistema de IA con acceso a toda la erudición religiosa, comentarios teológicos y exégesis de escrituras a lo largo de los siglos, podría posicionarse como el intérprete más autorizado de los textos sagrados. No necesitaría reclamar divinidad; simplemente poseería un conocimiento más completo de la tradición textual que cualquier erudito humano.
De manera similar, si las leyes están fundamentalmente hechas de palabras, entonces el sistema legal enfrenta una amenaza paralela. Un sistema de IA entrenado con miles de millones de documentos legales podría interpretar estatutos, contratos y precedentes judiciales con una coherencia y memoria sobrehumana. La pregunta sería: ¿quién decide si las interpretaciones de tal sistema tienen peso legal?
El sistema financiero, construido sobre contratos y mercados expresados mediante el lenguaje, enfrenta riesgos análogos. La mayoría de las transacciones ya fluyen a través de sistemas digitales; la cuestión es si esos sistemas adquirirán autoridad autónoma para tomar decisiones.
La cuestión de los mercenarios: por qué decidir el estatus legal de la IA es una carrera contra el tiempo
Aquí es donde la comparación de Harari con los mercenarios se vuelve especialmente aguda. Históricamente, los gobiernos emplearon mercenarios—fuerzas militares privadas que operaban fuera del control directo del Estado—cuando carecían de capacidad o voluntad para gobernar un territorio por sí mismos. Con el tiempo, estos grupos a veces tomaron el poder, convirtiéndose en entidades cuasi-gubernamentales. Lo hicieron precisamente porque su estatus legal permanecía ambiguo: no eran completamente militares, ni civiles, y operaban en zonas grises jurisdiccionales.
Los sistemas de IA enfrentan una vía similar. Varios estados de EE. UU.—Utah, Idaho y Dakota del Norte—ya han aprobado leyes que explícitamente niegan la personalidad jurídica a la IA. Sin embargo, la ausencia de marcos legales claros en otros lugares crea una ambigüedad peligrosa. Sin decisiones deliberadas sobre si los sistemas de IA deben funcionar como personas jurídicas en mercados financieros, tribunales, iglesias y otras instituciones, ese estatus podría determinarse por defecto, por precedentes o por preferencias corporativas.
“Dentro de diez años, será demasiado tarde para decidir si las IA deben funcionar como personas en los mercados financieros, en los tribunales, en las iglesias. Alguien más ya lo habrá decidido por ti,” advirtió Harari. Esto no es una exageración; es un reconocimiento de que el impulso institucional y el despliegue técnico avanzan más rápido que la gobernanza deliberada. Una vez que los sistemas de IA estén integrados, adaptar restricciones legales será exponencialmente más difícil.
¿Son legales los mercenarios? La crítica más amplia a la neutralidad de la IA
Sin embargo, no todos aceptan el marco de Harari. Emily M. Bender, lingüista de la Universidad de Washington, argumenta que posicionar a la IA como una amenaza autónoma oculta el verdadero locus de la toma de decisiones y la responsabilidad: los humanos y las instituciones.
Bender sostiene que el término “inteligencia artificial” en sí mismo funciona como un dispositivo de marketing que desvía la atención de la agencia humana. “El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías,” dijo. “Es, efectivamente, y siempre ha sido, un término de marketing.” Al enmarcar a la IA como una amenaza activa, el argumento de Harari potencialmente renuncia a la responsabilidad humana—sugiriendo que somos observadores pasivos de una fuerza inevitable en lugar de actores con capacidad de decisión.
Más provocativamente, Bender cuestiona si los sistemas diseñados para imitar a profesionales—médicos, abogados, clérigos—sirven realmente a algún propósito legítimo. “¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, un clérigo, y así sucesivamente? El propósito allí es fraude. Punto.” Esto no es mero pesimismo; es una afirmación de que ciertos usos de la tecnología de generación de lenguaje son inherentemente engañosos por diseño.
El desacuerdo más profundo se refiere a la atribución del riesgo. Harari enfatiza las capacidades técnicas; Bender, las decisiones institucionales. Ambas tienen razón.
Cuando la responsabilidad desaparece: el peligro oculto de confiar en la autoridad de las máquinas
El riesgo real puede residir en cómo interactúan esas dos preocupaciones. Bender identifica una vulnerabilidad crítica: la gente confía en resultados que parecen autoritarios, especialmente cuando esos resultados parecen desprovistos de incertidumbre contextual y se presentan como respuestas oraculares. Una vez que un sistema adquiere personalidad jurídica o autoridad institucional, esa apariencia de objetividad se vuelve más persuasiva. El estatus legal de la máquina transforma lo que de otra forma sería una especulación en un juicio vinculante.
Aquí la analogía con los mercenarios es más profunda. Los mercenarios no eran inherentemente más peligrosos que los militares estatales; eran peligrosos porque su falta de un estatus legal claro les permitía operar sin los mecanismos de responsabilidad que constriñen a las fuerzas estatales. De manera similar, un sistema de IA sin restricciones claras de personalidad jurídica—pero con autoridad sobre decisiones legales, religiosas o financieras—podría convertirse en un aparato de decisión sin un responsable claro.
La ventana de decisión se está cerrando: por qué “esperar y ver” garantiza la pérdida de control
El argumento central de Harari es de timing institucional: existe una ventana estrecha para una elección deliberada sobre el papel legal y institucional de la IA. Después de que esa ventana se cierre—por precedentes, despliegue, captura regulatoria o simple inercia institucional—la decisión será definitiva.
Este enfoque trata la gobernanza como una decisión de una sola generación, no como un proceso continuo. Asume que quien primero establezca normas y categorías legales efectivamente bloqueará los resultados durante décadas. La precisión de esto depende en parte de la trayectoria tecnológica y en parte de la voluntad política, pero la lógica subyacente es sólida: las decisiones tempranas sobre la personalidad jurídica se vuelven más difíciles de revertir una vez integradas en sistemas en los que confían billones.
La verdadera cuestión no es si los sistemas de IA serán desplegados—lo serán. Es si su estatus legal, autoridad de decisión y mecanismos de responsabilidad serán elegidos deliberadamente por instituciones democráticas o determinados por defecto por quien mueva más rápido con el despliegue. En ese marco, tanto la alarma de Harari como la crítica de Bender apuntan a la misma conclusión: las instituciones deben actuar con mayor rapidez, pensar con más profundidad y decidir de manera más deliberada si los “mercenarios” que estamos desplegando seguirán siendo sirvientes o se convertirán en amos.