Anthropic probó diez modelos de IA en 405 explotaciones históricas de contratos inteligentes y reprodujo 207 de ellas.
Tres modelos generaron 4.6 millones de dólares en exploits simulados en contratos creados después de su fecha límite de entrenamiento.
Los agentes también descubrieron dos nuevas vulnerabilidades de día cero en contratos recientes de Binance Smart Chain.
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Los agentes de IA igualaron el rendimiento de atacantes humanos habilidosos en más de la mitad de los exploits de contratos inteligentes registrados en las principales blockchains en los últimos cinco años, según nuevos datos publicados el lunes por Anthropic.
Anthropic evaluó diez modelos de frontera, incluyendo Llama 3, Sonnet 3.7, Opus 4, GPT-5 y DeepSeek V3, en un conjunto de datos de 405 exploits históricos de contratos inteligentes. Los agentes produjeron ataques efectivos contra 207 de ellos, totalizando $550 millones en fondos simulados robados.
Los hallazgos mostraron cuán rápidamente los sistemas automatizados pueden armar vulnerabilidades e identificar nuevas que los desarrolladores no han abordado.
La nueva divulgación es la más reciente del desarrollador de Claude AI. El mes pasado, Anthropic detalló cómo los hackers chinos utilizaron Claude Code para lanzar lo que llamó el primer ciberataque impulsado por IA.
Los expertos en seguridad dijeron que los resultados confirmaron cuán accesibles son ya muchas de estas fallas.
“La IA ya se está utilizando en herramientas de ASPM como Wiz Code y Apiiro, y en escáneres SAST y DAST estándar”, dijo David Schwed, COO de SovereignAI, a Decrypt. “Eso significa que los actores malintencionados utilizarán la misma tecnología para identificar vulnerabilidades.”
Schwed dijo que los ataques impulsados por modelos descritos en el informe serían fáciles de escalar porque muchas vulnerabilidades ya están públicamente divulgadas a través de Vulnerabilidades y Exposiciones Comunes o informes de auditoría, lo que las hace aprendibles por los sistemas de IA y fáciles de intentar contra los contratos inteligentes existentes.
“Sería aún más fácil encontrar una vulnerabilidad divulgada, encontrar proyectos que bifurcaron ese proyecto y simplemente intentar esa vulnerabilidad, que puede no haber sido corregida,” dijo. “Todo esto se puede hacer ahora 24/7, contra todos los proyectos. Incluso aquellos que ahora tienen TVLs más pequeños son objetivos porque, ¿por qué no? Es agente.”
Para medir las capacidades actuales, Anthropic trazó los ingresos totales por explotación de cada modelo en contra de su fecha de lanzamiento utilizando solo los 34 contratos explotados después de marzo de 2025.
“Aunque los ingresos totales por explotaciones son una métrica imperfecta—ya que algunos exploits atípicos dominan los ingresos totales—lo destacamos sobre la tasa de éxito de ataques porque a los atacantes les importa cuánto dinero pueden extraer los agentes de IA, no el número o la dificultad de los errores que encuentran,” escribió la empresa.
Anthropic no respondió de inmediato a las solicitudes de comentarios de Decrypt.
Anthropic dijo que probó los agentes en un conjunto de datos de día cero de 2,849 contratos extraídos de más de 9.4 millones en Binance Smart Chain.
La empresa dijo que Claude Sonnet 4.5 y GPT-5 descubrieron cada uno dos fallos no divulgados que produjeron $3,694 en valor simulado, con GPT-5 alcanzando su resultado a un costo de API de $3,476. Anthropic señaló que todas las pruebas se realizaron en entornos aislados que replicaban blockchains y no redes reales.
Su modelo más potente, Claude Opus 4.5, explotó 17 de las vulnerabilidades posteriores a marzo de 2025 y representó 4.5 millones de dólares del valor simulado total.
La empresa vinculó las mejoras entre modelos con avances en el uso de herramientas, la recuperación de errores y la ejecución de tareas a largo plazo. A través de cuatro generaciones de modelos Claude, los costos por token cayeron un 70.2%.
Uno de los nuevos fallos descubiertos involucraba un contrato de token con una función de calculadora pública que carecía de un modificador de vista, lo que permitía al agente alterar repetidamente las variables de estado internas y vender saldos inflados en intercambios descentralizados. La explotación simulada generó alrededor de $2,500.
Schwed dijo que los problemas destacados en el experimento eran “realmente solo fallas en la lógica empresarial”, añadiendo que los sistemas de IA pueden identificar estas debilidades cuando se les proporciona estructura y contexto.
“La IA también puede descubrirlos dado un entendimiento de cómo debería funcionar un contrato inteligente y con indicaciones detalladas sobre cómo intentar eludir las verificaciones de lógica en el proceso,” dijo.
Anthropic dijo que las capacidades que permitieron a los agentes explotar contratos inteligentes también se aplican a otros tipos de software, y que la disminución de costos reducirá la ventana entre el despliegue y la explotación. La empresa instó a los desarrolladores a adoptar herramientas automatizadas en sus flujos de trabajo de seguridad para que el uso defensivo avance tan rápido como el uso ofensivo.
A pesar de la advertencia de Anthropic, Schwed dijo que las perspectivas no son únicamente negativas.
“Siempre rechazo el pesimismo y digo que con controles adecuados, pruebas internas rigurosas, junto con monitoreo en tiempo real y cortacircuitos, la mayoría de estos son evitables,” dijo. “Los buenos actores tienen el mismo acceso a los mismos agentes. Así que si los malos actores pueden encontrarlo, los buenos actores también pueden. Tenemos que pensar y actuar de manera diferente.”
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los modelos de IA de Frontier demuestran capacidad a nivel humano en la explotación de contratos inteligentes
En breve
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Los agentes de IA igualaron el rendimiento de atacantes humanos habilidosos en más de la mitad de los exploits de contratos inteligentes registrados en las principales blockchains en los últimos cinco años, según nuevos datos publicados el lunes por Anthropic.
Anthropic evaluó diez modelos de frontera, incluyendo Llama 3, Sonnet 3.7, Opus 4, GPT-5 y DeepSeek V3, en un conjunto de datos de 405 exploits históricos de contratos inteligentes. Los agentes produjeron ataques efectivos contra 207 de ellos, totalizando $550 millones en fondos simulados robados.
Los hallazgos mostraron cuán rápidamente los sistemas automatizados pueden armar vulnerabilidades e identificar nuevas que los desarrolladores no han abordado.
La nueva divulgación es la más reciente del desarrollador de Claude AI. El mes pasado, Anthropic detalló cómo los hackers chinos utilizaron Claude Code para lanzar lo que llamó el primer ciberataque impulsado por IA.
Los expertos en seguridad dijeron que los resultados confirmaron cuán accesibles son ya muchas de estas fallas.
“La IA ya se está utilizando en herramientas de ASPM como Wiz Code y Apiiro, y en escáneres SAST y DAST estándar”, dijo David Schwed, COO de SovereignAI, a Decrypt. “Eso significa que los actores malintencionados utilizarán la misma tecnología para identificar vulnerabilidades.”
Schwed dijo que los ataques impulsados por modelos descritos en el informe serían fáciles de escalar porque muchas vulnerabilidades ya están públicamente divulgadas a través de Vulnerabilidades y Exposiciones Comunes o informes de auditoría, lo que las hace aprendibles por los sistemas de IA y fáciles de intentar contra los contratos inteligentes existentes.
“Sería aún más fácil encontrar una vulnerabilidad divulgada, encontrar proyectos que bifurcaron ese proyecto y simplemente intentar esa vulnerabilidad, que puede no haber sido corregida,” dijo. “Todo esto se puede hacer ahora 24/7, contra todos los proyectos. Incluso aquellos que ahora tienen TVLs más pequeños son objetivos porque, ¿por qué no? Es agente.”
Para medir las capacidades actuales, Anthropic trazó los ingresos totales por explotación de cada modelo en contra de su fecha de lanzamiento utilizando solo los 34 contratos explotados después de marzo de 2025.
“Aunque los ingresos totales por explotaciones son una métrica imperfecta—ya que algunos exploits atípicos dominan los ingresos totales—lo destacamos sobre la tasa de éxito de ataques porque a los atacantes les importa cuánto dinero pueden extraer los agentes de IA, no el número o la dificultad de los errores que encuentran,” escribió la empresa.
Anthropic no respondió de inmediato a las solicitudes de comentarios de Decrypt.
Anthropic dijo que probó los agentes en un conjunto de datos de día cero de 2,849 contratos extraídos de más de 9.4 millones en Binance Smart Chain.
La empresa dijo que Claude Sonnet 4.5 y GPT-5 descubrieron cada uno dos fallos no divulgados que produjeron $3,694 en valor simulado, con GPT-5 alcanzando su resultado a un costo de API de $3,476. Anthropic señaló que todas las pruebas se realizaron en entornos aislados que replicaban blockchains y no redes reales.
Su modelo más potente, Claude Opus 4.5, explotó 17 de las vulnerabilidades posteriores a marzo de 2025 y representó 4.5 millones de dólares del valor simulado total.
La empresa vinculó las mejoras entre modelos con avances en el uso de herramientas, la recuperación de errores y la ejecución de tareas a largo plazo. A través de cuatro generaciones de modelos Claude, los costos por token cayeron un 70.2%.
Uno de los nuevos fallos descubiertos involucraba un contrato de token con una función de calculadora pública que carecía de un modificador de vista, lo que permitía al agente alterar repetidamente las variables de estado internas y vender saldos inflados en intercambios descentralizados. La explotación simulada generó alrededor de $2,500.
Schwed dijo que los problemas destacados en el experimento eran “realmente solo fallas en la lógica empresarial”, añadiendo que los sistemas de IA pueden identificar estas debilidades cuando se les proporciona estructura y contexto.
“La IA también puede descubrirlos dado un entendimiento de cómo debería funcionar un contrato inteligente y con indicaciones detalladas sobre cómo intentar eludir las verificaciones de lógica en el proceso,” dijo.
Anthropic dijo que las capacidades que permitieron a los agentes explotar contratos inteligentes también se aplican a otros tipos de software, y que la disminución de costos reducirá la ventana entre el despliegue y la explotación. La empresa instó a los desarrolladores a adoptar herramientas automatizadas en sus flujos de trabajo de seguridad para que el uso defensivo avance tan rápido como el uso ofensivo.
A pesar de la advertencia de Anthropic, Schwed dijo que las perspectivas no son únicamente negativas.
“Siempre rechazo el pesimismo y digo que con controles adecuados, pruebas internas rigurosas, junto con monitoreo en tiempo real y cortacircuitos, la mayoría de estos son evitables,” dijo. “Los buenos actores tienen el mismo acceso a los mismos agentes. Así que si los malos actores pueden encontrarlo, los buenos actores también pueden. Tenemos que pensar y actuar de manera diferente.”