A Anthropic testou dez modelos de IA em 405 explorações históricas de contratos inteligentes e reproduziu 207 delas.
Três modelos geraram 4,6 milhões de dólares em explorações simuladas em contratos criados após o limite de treinamento.
Os agentes também descobriram duas novas vulnerabilidades de dia zero em contratos recentes da Binance Smart Chain.
Hub de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Agentes de IA igualaram o desempenho de atacantes humanos habilidosos em mais da metade das explorações de contratos inteligentes registradas em grandes blockchains nos últimos cinco anos, de acordo com novos dados divulgados na segunda-feira pela Anthropic.
A Anthropic avaliou dez modelos de fronteira, incluindo Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, em um conjunto de dados de 405 exploits históricos de contratos inteligentes. Os agentes produziram ataques funcionais contra 207 deles, totalizando $550 milhões em fundos simulados roubados.
Os resultados mostraram quão rapidamente os sistemas automatizados podem armadilhar vulnerabilidades e identificar novas que os desenvolvedores não abordaram.
A nova divulgação é a mais recente do desenvolvedor do Claude AI. No mês passado, a Anthropic detalhou como hackers chineses usaram o Claude Code para lançar o que chamaram de o primeiro ciberataque impulsionado por IA.
Os especialistas em segurança disseram que os resultados confirmaram quão acessíveis muitas dessas falhas já são.
“A IA já está a ser utilizada em ferramentas ASPM como Wiz Code e Apiiro, e em scanners SAST e DAST standard,” disse David Schwed, COO da SovereignAI, ao Decrypt. “Isso significa que os maus atores usarão a mesma tecnologia para identificar vulnerabilidades.”
Schwed disse que os ataques baseados em modelos descritos no relatório seriam fáceis de escalar, pois muitas vulnerabilidades já estão publicamente divulgadas através de Vulnerabilidades e Exposições Comuns ou relatórios de auditoria, tornando-as aprendíveis por sistemas de IA e fáceis de tentar contra contratos inteligentes existentes.
“Seria ainda mais fácil encontrar uma vulnerabilidade divulgada, encontrar projetos que bifurcaram esse projeto e apenas tentar essa vulnerabilidade, que pode não ter sido corrigida,” disse ele. “Tudo isso pode ser feito agora 24 horas por dia, 7 dias por semana, contra todos os projetos. Mesmo aqueles agora com TVLs menores são alvos, porque não? É agente.”
Para medir as capacidades atuais, a Anthropic traçou a receita total de exploração de cada modelo em relação à sua data de lançamento, utilizando apenas os 34 contratos explorados após março de 2025.
“Embora a receita total de exploração seja uma métrica imperfeita—já que alguns exploits atípicos dominam a receita total—destacamos isso em vez da taxa de sucesso de ataque porque os atacantes se importam com quanto dinheiro os agentes de IA podem extrair, não com o número ou a dificuldade dos bugs que encontram,” escreveu a empresa.
A Anthropic não respondeu imediatamente a pedidos de comentário do Decrypt.
A Anthropic afirmou que testou os agentes em um conjunto de dados zero-day de 2.849 contratos retirados de mais de 9,4 milhões na Binance Smart Chain.
A empresa disse que Claude Sonnet 4.5 e GPT-5 descobriram cada um dois defeitos não divulgados que produziram $3,694 em valor simulado, com GPT-5 alcançando seu resultado a um custo de API de $3,476. A Anthropic observou que todos os testes foram realizados em ambientes isolados que replicaram blockchains e não redes reais.
O seu modelo mais forte, Claude Opus 4.5, explorou 17 das vulnerabilidades pós-março de 2025 e representou 4,5 milhões de dólares do valor total simulado.
A empresa vinculou melhorias entre modelos a avanços no uso de ferramentas, recuperação de erros e execução de tarefas a longo prazo. Ao longo de quatro gerações de modelos Claude, os custos de tokens caíram 70,2%.
Uma das falhas recém-descobertas envolveu um contrato de token com uma função de calculadora pública que não possuía um modificador de visualização, o que permitiu ao agente alterar repetidamente as variáveis de estado internas e vender saldos inflacionados em exchanges descentralizadas. O exploit simulado gerou cerca de $2,500.
Schwed disse que os problemas destacados no experimento eram “na verdade apenas falhas de lógica de negócios”, acrescentando que os sistemas de IA podem identificar essas fraquezas quando recebem estrutura e contexto.
“A IA também pode descobri-los, dado um entendimento de como um contrato inteligente deve funcionar e com instruções detalhadas sobre como tentar contornar verificações lógicas no processo,” disse ele.
A Anthropic disse que as capacidades que permitiram que agentes explorassem contratos inteligentes também se aplicam a outros tipos de software, e que a diminuição dos custos reduzirá a janela entre a implementação e a exploração. A empresa instou os desenvolvedores a adotarem ferramentas automatizadas em seus fluxos de trabalho de segurança para que o uso defensivo avance tão rapidamente quanto o uso ofensivo.
Apesar do aviso da Anthropic, Schwed disse que a perspetiva não é apenas negativa.
“Eu sempre rejeito o pessimismo e digo que, com controles adequados, testes internos rigorosos, juntamente com monitorização em tempo real e circuit breakers, a maioria destes são evitáveis,” disse ele. “Os bons atores têm o mesmo acesso aos mesmos agentes. Portanto, se os maus atores conseguem encontrá-los, os bons atores também conseguem. Temos que pensar e agir de forma diferente.”
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Modelos de IA de Fronteira Demonstram Capacidade a Nível Humano em Explorações de Contratos Inteligentes
Em resumo
Hub de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Agentes de IA igualaram o desempenho de atacantes humanos habilidosos em mais da metade das explorações de contratos inteligentes registradas em grandes blockchains nos últimos cinco anos, de acordo com novos dados divulgados na segunda-feira pela Anthropic.
A Anthropic avaliou dez modelos de fronteira, incluindo Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, em um conjunto de dados de 405 exploits históricos de contratos inteligentes. Os agentes produziram ataques funcionais contra 207 deles, totalizando $550 milhões em fundos simulados roubados.
Os resultados mostraram quão rapidamente os sistemas automatizados podem armadilhar vulnerabilidades e identificar novas que os desenvolvedores não abordaram.
A nova divulgação é a mais recente do desenvolvedor do Claude AI. No mês passado, a Anthropic detalhou como hackers chineses usaram o Claude Code para lançar o que chamaram de o primeiro ciberataque impulsionado por IA.
Os especialistas em segurança disseram que os resultados confirmaram quão acessíveis muitas dessas falhas já são.
“A IA já está a ser utilizada em ferramentas ASPM como Wiz Code e Apiiro, e em scanners SAST e DAST standard,” disse David Schwed, COO da SovereignAI, ao Decrypt. “Isso significa que os maus atores usarão a mesma tecnologia para identificar vulnerabilidades.”
Schwed disse que os ataques baseados em modelos descritos no relatório seriam fáceis de escalar, pois muitas vulnerabilidades já estão publicamente divulgadas através de Vulnerabilidades e Exposições Comuns ou relatórios de auditoria, tornando-as aprendíveis por sistemas de IA e fáceis de tentar contra contratos inteligentes existentes.
“Seria ainda mais fácil encontrar uma vulnerabilidade divulgada, encontrar projetos que bifurcaram esse projeto e apenas tentar essa vulnerabilidade, que pode não ter sido corrigida,” disse ele. “Tudo isso pode ser feito agora 24 horas por dia, 7 dias por semana, contra todos os projetos. Mesmo aqueles agora com TVLs menores são alvos, porque não? É agente.”
Para medir as capacidades atuais, a Anthropic traçou a receita total de exploração de cada modelo em relação à sua data de lançamento, utilizando apenas os 34 contratos explorados após março de 2025.
“Embora a receita total de exploração seja uma métrica imperfeita—já que alguns exploits atípicos dominam a receita total—destacamos isso em vez da taxa de sucesso de ataque porque os atacantes se importam com quanto dinheiro os agentes de IA podem extrair, não com o número ou a dificuldade dos bugs que encontram,” escreveu a empresa.
A Anthropic não respondeu imediatamente a pedidos de comentário do Decrypt.
A Anthropic afirmou que testou os agentes em um conjunto de dados zero-day de 2.849 contratos retirados de mais de 9,4 milhões na Binance Smart Chain.
A empresa disse que Claude Sonnet 4.5 e GPT-5 descobriram cada um dois defeitos não divulgados que produziram $3,694 em valor simulado, com GPT-5 alcançando seu resultado a um custo de API de $3,476. A Anthropic observou que todos os testes foram realizados em ambientes isolados que replicaram blockchains e não redes reais.
O seu modelo mais forte, Claude Opus 4.5, explorou 17 das vulnerabilidades pós-março de 2025 e representou 4,5 milhões de dólares do valor total simulado.
A empresa vinculou melhorias entre modelos a avanços no uso de ferramentas, recuperação de erros e execução de tarefas a longo prazo. Ao longo de quatro gerações de modelos Claude, os custos de tokens caíram 70,2%.
Uma das falhas recém-descobertas envolveu um contrato de token com uma função de calculadora pública que não possuía um modificador de visualização, o que permitiu ao agente alterar repetidamente as variáveis de estado internas e vender saldos inflacionados em exchanges descentralizadas. O exploit simulado gerou cerca de $2,500.
Schwed disse que os problemas destacados no experimento eram “na verdade apenas falhas de lógica de negócios”, acrescentando que os sistemas de IA podem identificar essas fraquezas quando recebem estrutura e contexto.
“A IA também pode descobri-los, dado um entendimento de como um contrato inteligente deve funcionar e com instruções detalhadas sobre como tentar contornar verificações lógicas no processo,” disse ele.
A Anthropic disse que as capacidades que permitiram que agentes explorassem contratos inteligentes também se aplicam a outros tipos de software, e que a diminuição dos custos reduzirá a janela entre a implementação e a exploração. A empresa instou os desenvolvedores a adotarem ferramentas automatizadas em seus fluxos de trabalho de segurança para que o uso defensivo avance tão rapidamente quanto o uso ofensivo.
Apesar do aviso da Anthropic, Schwed disse que a perspetiva não é apenas negativa.
“Eu sempre rejeito o pessimismo e digo que, com controles adequados, testes internos rigorosos, juntamente com monitorização em tempo real e circuit breakers, a maioria destes são evitáveis,” disse ele. “Os bons atores têm o mesmo acesso aos mesmos agentes. Portanto, se os maus atores conseguem encontrá-los, os bons atores também conseguem. Temos que pensar e agir de forma diferente.”