Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic V Las Fuerzas Armadas de EE. UU.: Lo que esta disputa pública dice sobre el uso de IA en la guerra
(MENAFN- La Conversación) La disputa muy pública entre el Departamento de Defensa de EE. UU. (también conocido actualmente como el Departamento de Guerra) y su proveedor de tecnología de IA, Anthropic, es inusual por enfrentar el poder estatal contra el poder corporativo. En el ámbito militar, al menos, estos suelen ser aliados cercanos.
El origen de esta desacuerdo se remonta a meses atrás, en medio de críticas reiteradas del “zar” de IA y criptomonedas de Donald Trump, David Sacks, sobre las supuestas posturas woke de la compañía.
Pero las tensiones aumentaron tras informes de prensa que indicaban que la tecnología de Anthropic había sido utilizada en el violento secuestro del expresidente venezolano Nicolás Maduro por parte del ejército estadounidense en enero de 2026. Se alegó que esto causó descontento dentro de la empresa con sede en San Francisco.
Anthropic lo negó, y fuentes internas sugirieron que no encontraron ni reportaron ninguna violación de sus políticas tras la operación contra Maduro.
No obstante, el secretario de Defensa de EE. UU., Pete Hegseth, emitió un ultimátum a Anthropic. A menos que la compañía relaje su política de límites éticos antes de las 5:01 p. m. hora de Washington del viernes 27 de febrero, el gobierno estadounidense podría invocar la Ley de Defensa de 1950. Esto permitiría al Departamento de Defensa (DoD) apropiarse del uso de esta tecnología según lo considere conveniente.
Al mismo tiempo, Anthropic podría ser designada como un riesgo en la cadena de suministro, poniendo en peligro sus contratos con el gobierno. Estas medidas extraordinarias pueden parecer contradictorias, pero son coherentes con el enfoque actual de la administración estadounidense, que favorece gestos grandes y ambigüedad en las políticas.
En el centro de la disputa está la cuestión de cómo se usa el gran modelo de lenguaje (LLM) Claude de Anthropic en un contexto militar. En muchos sectores, Claude realiza tareas automatizadas como escritura, codificación, razonamiento y análisis.
En julio de 2024, la compañía estadounidense de análisis de datos Palantir anunció que se asociaba con Anthropic para “llevar los modelos de IA Claude… a las operaciones de inteligencia y defensa del gobierno de EE. UU.”. Luego, en julio de 2025, Anthropic firmó un contrato de 200 millones de dólares (150 millones de libras) con el DoD, estableciendo ciertos términos a través de su “política de uso aceptable”.
Estos términos, por ejemplo, prohíben el uso de Claude en la vigilancia masiva de ciudadanos estadounidenses o en sistemas de armas completamente autónomas que, una vez activadas, puedan seleccionar y atacar objetivos sin intervención humana.
Según Anthropic, cualquiera de estas acciones violaría su definición de “IA responsable”. Hegseth y el DoD han rechazado estas restricciones, calificándolas de excesivamente restrictivas en un entorno geopolítico marcado por la incertidumbre, la inestabilidad y líneas borrosas.
La IA responsable, insisten, debe abarcar “cualquier uso legal” de los modelos de IA por parte del ejército de EE. UU. Un memorando emitido por Hegseth el 9 de enero de 2026 afirmó:
El memorando instruyó que el término “cualquier uso legal” debe incorporarse en futuros contratos del DoD para servicios de IA en un plazo de 180 días.
Los competidores de Anthropic se están preparando
Las líneas rojas de Anthropic no prohíben la vigilancia masiva de comunidades humanas en general, solo de ciudadanos estadounidenses. Y aunque limita el uso a armas no autónomas, los múltiples usos en evolución de la IA para informar, acelerar o ampliar la violencia, en formas que limitan severamente las oportunidades de restricción moral, no están mencionados en su política de uso aceptable.
Actualmente, Anthropic tiene una ventaja competitiva. Su modelo LLM está integrado en interfaces del gobierno de EE. UU. con niveles de autorización suficientes para ofrecer un producto superior. Pero sus competidores también se están preparando.
Palantir ha expandido significativamente su negocio con el Pentágono en los últimos meses, desarrollando más modelos de IA.
Mientras tanto, Google actualizó recientemente sus directrices éticas, eliminando su promesa de no usar IA para desarrollo de armas y vigilancia. OpenAI también modificó su declaración de misión, eliminando la “seguridad” como valor central, y xAI de Elon Musk (creador del chatbot Grok) ha aceptado el estándar de “cualquier uso legal” del Pentágono.
Un punto de prueba para la IA militar
Para C.S. Lewis, el valor era la virtud principal, ya que representa “la forma de toda virtud en el punto de prueba”. Anthropic ahora enfrenta tal prueba.
El 24 de febrero, la compañía anunció la última actualización de su política de escalado responsable — “el marco voluntario que usamos para mitigar riesgos catastróficos de los sistemas de IA”. Según Time, los cambios incluyen “eliminar la promesa de no lanzar modelos de IA si Anthropic no puede garantizar mitigaciones de riesgos adecuadas de antemano”.
El director de ciencia de Anthropic, Jared Kaplan, dijo a Time: “No sentimos que, con el avance rápido de la IA, tuviera sentido hacer compromisos unilaterales… si los competidores avanzan rápidamente”.
El lenguaje ético inunda los comunicados de prensa de las empresas de Silicon Valley que quieren distinguirse de “actores malintencionados” en Rusia, China y otros lugares. Pero las palabras y acciones éticas no son iguales, porque las últimas a menudo implican un costo real en el mundo.
Que un espectáculo tan público esté ocurriendo en este momento quizás no sea casual. A principios de febrero, representantes de muchos países — pero no de EE. UU. — se reunieron por tercera vez para buscar formas de acordar sobre “IA responsable” en el ámbito militar. Y del 2 al 6 de marzo, la ONU celebrará su última conferencia para discutir cómo limitar mejor el uso de tecnologías emergentes en sistemas de armas autónomas letales.
Estos debates legales y éticos sobre el papel de la tecnología de IA en el futuro de la guerra son críticos y están atrasados. Anthropic merece crédito por resistir, aparentemente, los esfuerzos del ejército estadounidense por socavar sus directrices éticas. Pero el papel de la IA probablemente será puesto a prueba en muchas más situaciones de conflicto antes de que se alcance un acuerdo.