Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
OpenAI y Anthropic en Ambos Lados del Pentágono: La Batalla por la IA de Defesa
OpenAI ha conseguido un contrato estratégico para operar sus modelos de IA en redes clasificadas del Pentágono, mientras que Anthropic enfrentaba la interrupción de sus programas. El anuncio de Sam Altman en X marca un punto de inflexión en las políticas de IA del gobierno estadounidense, revelando no solo una preferencia por un proveedor sobre otro, sino también las tensiones fundamentales entre innovación, seguridad y libertades civiles.
El Acuerdo que Coloca a OpenAI en el Centro de la Estrategia del Pentágono
La asociación entre OpenAI y el Pentágono representa una escalada formal en la integración de inteligencia artificial en infraestructuras militares críticas. El CEO de OpenAI describió el acuerdo como respetuoso con las barreras de seguridad de la empresa, estableciendo un modelo donde la implementación avanza gradualmente desde entornos civiles hasta redes clasificadas.
Este enfoque señala un reconocimiento del gobierno: las empresas de IA deben tener poder de veto sobre ciertas aplicaciones. El mensaje de Altman enfatizó que OpenAI mantiene restricciones específicas, incluida la prohibición de vigilancia masiva en el hogar y la exigencia de supervisión humana en decisiones que involucren fuerza letal y sistemas de armas autónomas.
Los Dos Lados de la Controversia: Por Qué Anthropic Perdió el Contrato
La trayectoria de Anthropic ofrece el contrapunto revelador. La empresa había firmado un contrato de 200 millones de dólares con el Pentágono hace algunos meses, convirtiéndose en el primer laboratorio de IA en implementar modelos en entornos clasificados. Sin embargo, las negociaciones se colapsaron cuando Anthropic insistió en garantías explícitas contra el desarrollo de armas autónomas y programas de vigilancia masiva.
El Departamento de Defensa, por su parte, rechazó estas restricciones, argumentando que la tecnología debería permanecer disponible para “todos los fines militares legales” — una postura que Anthropic vio como incompatible con sus valores fundamentales. La empresa posteriormente declaró estar “profundamente entristecida” con la designación y señaló su intención de impugnar la decisión en los tribunales.
La divergencia ilustra un desafío central: ¿cómo equilibrar el acceso a capacidades de IA de vanguardia con limitaciones éticas que protejan tanto la seguridad nacional como las libertades civiles? La respuesta del gobierno fue clara: seleccionó un proveedor dispuesto a aceptar sus términos.
La Casa Blanca Intensifica la Supervisión y Marca Posición
Simultáneamente, la Casa Blanca ordenó que agencias federales descontinuaran el uso de la tecnología de Anthropic, estableciendo un periodo de transición de seis meses. Esta medida no es meramente administrativa: demuestra la intención de la administración de establecer un control riguroso sobre cuáles herramientas de IA operan en dominios gubernamentales sensibles.
La política revela un cálculo político: permitir implantaciones de IA cuidadosamente planificadas mientras impone límites sobre proveedores que representan diferentes visiones sobre responsabilidad y seguridad. La oposición entre la aprobación de un contrato (OpenAI) y la suspensión de otro (Anthropic) funciona como una señal clara de cuáles valores prioriza el gobierno federal.
Implicaciones para el Futuro de la IA Gubernamental y Comercial
Si se mantiene, esta decisión establecerá un precedente significativo que moldeará cómo las startups y las empresas consolidadas negocian con agencias federales. Las futuras asociaciones de IA pueden depender menos de la innovación técnica pura y más de la disposición a aceptar restricciones operativas específicas.
OpenAI indicó mantener limitaciones similares a las que propuso Anthropic, pero con mayor flexibilidad en relación con los “fines militares legales”. La cuestión crítica ahora es: ¿qué constituye un “fin legal” en operaciones de defensa? Las negociaciones futuras probablemente girarán en torno a esta definición.
Además, el episodio de Anthropic podría influir en el resultado de su impugnación legal. Si la empresa prevalece en los tribunales, esto podría reabrir las negociaciones y establecer parámetros diferentes para futuras adquisiciones. Si pierde, señalará que las restricciones de gobernanza corporativa tienen menos peso que las prioridades militares.
El Modelo de Gobernanza que Surge
El resultado visible es un marco donde la colaboración con entidades de defensa ocurre dentro de estructuras de conformidad rigurosas. OpenAI se ha comprometido a la supervisión humana obligatoria en decisiones que involucran fuerza, integración gradual de capacidades y auditorías de seguridad continuadas.
Estos compromisos representan un punto de equilibrio entre dos extremos: el acceso irrestricto ( que los militares preferirían ) y la negativa completa ( que empresas enfocadas en IA segura podrían adoptar ). Para el Pentágono, OpenAI ofrece una vía intermedia: potencia tecnológica con salvaguardias incorporadas.
Perspectiva: Cuando la Política de IA Moldea la Innovación
La trayectoria más amplia sugiere que las decisiones de adquisición gubernamental ahora funcionan como un mecanismo de selección para el ecosistema de IA en su conjunto. Las empresas que acepten marcos regulatorios rigurosos ganarán acceso a contratos altamente lucrativos. Aquellas que se resistan enfrentarán una exclusión sistemática — un resultado que puede desincentivar la adopción de posiciones éticas más restrictivas.
Esta dinámica tendrá repercusiones más allá de la defensa. Las agencias federales en salud, seguridad social y aplicación de la ley también evaluarán a los proveedores en base a modelos similares. El precedente establecido por el Pentágono probablemente se propagará por todo el sector público, redefiniendo qué empresas de IA tienen acceso a contratos gubernamentales.
Para la comunidad tecnológica, los próximos meses funcionarán como un laboratorio vivo: los observadores del sector analizarán si la colaboración OpenAI-DoD demuestra ser escalable, segura y responsable, o si emerge como un ejemplo de cómo las prioridades de defensa pueden comprometer protecciones en favor de la velocidad y capacidad.
El escenario deja clara un mensaje: en la intersección entre IA, seguridad nacional y política federal, los lados están cada vez más definidos. Las empresas deben elegir qué lado ocupan — y deben estar preparadas para que esa elección determine su futuro en el ecosistema gubernamental.