Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Las juntas no están preparadas para la era de la IA: ¿Qué pasa cuando tu CEO es deepfaked?
El fraude con deepfakes drenó 1.100 millones de dólares de cuentas corporativas en EE. UU. en 2025, triplicando los 360 millones del año anterior. A mediados del año pasado, los incidentes documentados ya se habían cuadruplicado respecto a 2024. Y la mayoría de los equipos de comunicación y marca siguen peligrosamente desprevenidos.
Video recomendado
Los ejecutivos ahora enfrentan amenazas sintéticas desde dos direcciones: sus imágenes clonadas para autorizar transferencias fraudulentas o causar daño reputacional, y voces generadas por IA que impersonan a funcionarios gubernamentales, miembros de juntas directivas y socios comerciales utilizados para manipularlos.
En 2019, un ejecutivo británico de energía sin nombre recibió una llamada de alguien que creía era su director ejecutivo. El acento y los sutiles cambios en las consonantes eran correctos, incluso el ritmo era familiar. Solo después de transferir 243,000 dólares, supieron que la voz en el teléfono era sintética. El año pasado, estafadores clonaron al ministro de defensa de Italia y llamaron a la élite empresarial del país. Al menos uno envió casi 1 millón de euros antes de descubrir la estafa.
Pero esas marcas tuvieron suerte. Imagina el impacto si un video sintético de tu CEO haciendo comentarios inapropiados, anunciando una fusión falsa o criticando a un regulador se difundiera rápidamente en las redes sociales antes de que tu equipo pudiera responder. Los deepfakes ya no son una curiosidad de ciberseguridad. Ahora representan una amenaza de seguridad, un riesgo financiero y un peligro reputacional importante.
La brecha en comunicación es mayor que la de seguridad
La mayoría de las coberturas sobre amenazas de deepfake se centran en algoritmos de detección y protocolos de verificación. Los proveedores de ciberseguridad ofrecen soluciones, y los departamentos de TI actualizan políticas. Sin embargo, pocos abordan una pregunta crítica para los CMOs y CCOs: ¿Qué pasa con tu marca si se usa la imagen de tu CEO para fraude, desinformación o ataques de carácter?
He pasado dos décadas asesorando a ejecutivos en crisis de reputación, incluyendo investigaciones regulatorias y campañas mediáticas hostiles. Existen manuales establecidos para estas situaciones. Sin embargo, no hay un protocolo definido para incidentes como una imagen sintética de un CEO autorizando una adquisición fraudulenta o un video fabricado de un fundador que se vuelve viral.
La visibilidad del ejecutivo ahora funciona en ambas direcciones
Cada publicación en redes sociales, discurso principal, aparición en podcast y llamada de resultados que involucra a tu CEO proporciona datos potenciales para atacantes. La visibilidad que construye la marca del ejecutivo y humaniza el liderazgo también suministra las muestras de voz y el mapeo facial necesarios para medios sintéticos.
No todos los ataques tienen éxito. El año pasado, estafadores dirigieron un ataque al CEO de una empresa global de publicidad. Crearon una cuenta falsa de WhatsApp usando su foto, simularon una llamada en Microsoft Teams con una voz clonada por IA entrenada con videos de YouTube, y pidieron a un ejecutivo senior financiar una nueva empresa. El empleado se negó y la firma no perdió nada, pero la sofisticación del intento mostró cuánto ha avanzado la tecnología.
El número de deepfakes aumentó de 500,000 en 2023 a más de ocho millones en 2025. La clonación de voces para fraude creció un 680 por ciento en un año. Se espera que las pérdidas por fraude habilitado por IA alcancen los 40 mil millones de dólares para 2027. Sin embargo, solo el 32 por ciento de los ejecutivos corporativos creen que sus organizaciones están preparadas para manejar un incidente de deepfake.
Tres preguntas que todo equipo de comunicación debe responder ahora
Primero, ¿tienes un protocolo de divulgación para ataques con medios sintéticos? Si se usa una réplica generada por IA de tu CEO para fraude o desinformación, ¿quién comunica, cuándo y a través de qué canales?
Segundo, ¿has realizado un ejercicio de simulación de deepfake? Los simulacros de crisis ahora deben incluir escenarios donde se use la imagen de un ejecutivo para fraude interno, desinformación externa o ambos.
Tercero, ¿has coordinado la secuencia de respuesta con legal, ciberseguridad y relaciones con inversores? Una crisis de deepfake es un evento de fraude, una posible obligación de divulgación y una emergencia de marca, todo a la vez. Las respuestas aisladas fracasarán.
Actúa antes del ataque
Las empresas que sobrevivirán a esta era están creando protocolos de crisis ahora, antes de que las caras de sus ejecutivos aparezcan en videos que nunca grabaron, diciendo cosas que nunca dijeron, autorizando transacciones que nunca aprobaron. La imagen de tu CEO es un activo de marca. También es un vector de ataque.
Los equipos de comunicación y marca que traten los deepfakes como un problema de otros—una cuestión de ciberseguridad, un asunto de TI, un fraude para finanzas—se encontrarán redactando disculpas en lugar de estrategias.
Las opiniones expresadas en los artículos de Fortune.com son solo las opiniones de sus autores y no reflejan necesariamente las opiniones y creencias de Fortune.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí, y el manual antiguo está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.