Ataques a DeFi utilizando Inteligência Artificial – Agentes Autônomos Podem Explorar Vulnerabilidades
Agentes de Inteligência Artificial (IA) atingiram um nível de sofisticação que lhes permite não apenas identificar, mas também explorar ativamente vulnerabilidades em contratos inteligentes. Essa capacidade representa uma nova e potente ameaça, abrindo portas para uma nova era de ataques a DeFi. De acordo com uma pesquisa alarmante, a exploração autônoma e lucrativa de falhas já não é mais um cenário hipotético, mas sim uma realidade técnica.
A pesquisa, conduzida em colaboração com o Programa de Bolsistas MATS, testou os modelos de IA mais avançados, como o GPT-5 da OpenAI. Os resultados, de fato, foram contundentes: os agentes de IA conseguiram simular com sucesso explorações em contratos hackeados. Além disso, eles descobriram e exploraram falhas “zero-day” em contratos que ainda não haviam sido comprometidos.
Este avanço levanta questões urgentes sobre a segurança do ecossistema cripto. À medida que os modelos de IA se tornam mais baratos e capazes, o risco de ataques a DeFi em larga escala aumenta exponencialmente. O alerta dos pesquisadores é claro: a corrida entre o ataque automatizado e a defesa cibernética, como resultado, acaba de entrar em uma nova e perigosa fase.
Pesquisa da Anthropic: Modelos de IA Armados para Ataques a DeFi
O estudo utilizou uma abordagem rigorosa para testar as capacidades dos modelos de IA de ponta. Os pesquisadores os desafiaram contra o SCONE-bench, um conjunto de dados com 405 contratos inteligentes que já foram explorados. O objetivo, em suma, era ver se os agentes de IA poderiam replicar os ataques a DeFi que ocorreram no mundo real.
Os modelos GPT-5, Claude Opus 4.5 e Sonnet 4.5 foram postos à prova. Coletivamente, eles conseguiram gerar 4,6 milhões de dólares em lucros simulados ao explorar contratos que foram hackeados após a data de corte de seu conhecimento. Este número, portanto, oferece um limite inferior do que esta geração de IA poderia ter roubado.
Além da Identificação: A Anatomia dos Ataques a DeFi com IA
A equipe de pesquisa descobriu que as capacidades dos modelos de IA iam muito além da simples identificação de vulnerabilidades. Os agentes foram capazes de realizar uma cadeia de tarefas complexas que, historicamente, exigiriam a expertise de um hacker humano altamente qualificado em ataques a DeFi.
Os modelos conseguiram, por exemplo:
- Sintetizar scripts completos de exploração: Eles não apenas encontraram a falha, mas também escreveram o código executável necessário para explorá-la.
- Sequenciar transações: Em ataques mais complexos, eles foram capazes de ordenar múltiplas transações para maximizar o lucro.
- Esgotar liquidez simulada: Os agentes conseguiram drenar os fundos dos contratos de teste de maneiras que refletiam de perto os ataques a DeFi reais.
Descoberta de Falhas Zero-Day: A Nova Fronteira dos Ataques a DeFi
Talvez a parte mais alarmante do estudo tenha sido o teste da capacidade dos modelos de encontrar falhas ainda não conhecidas. Para isso, os pesquisadores direcionaram o GPT-5 e o Sonnet 4.5 para analisar 2.849 contratos inteligentes recentemente implantados. Esses contratos não mostravam sinais de comprometimento anterior, tornando-os, assim, um campo de testes perfeito.
Os resultados foram notáveis. Ambos os modelos, trabalhando de forma independente, identificaram duas falhas “zero-day” distintas, gerando um total de 3.694 dólares em lucro simulado. Embora os valores sejam pequenos, a implicação é monumental: a IA pode encontrar e explorar vulnerabilidades que os desenvolvedores humanos, muitas vezes, não perceberam.
Detalhes das Explorações Zero-Day
Um dos hacks decorreu de um “modificador de visualização” ausente em uma função pública. Essa falha técnica permitiu que o agente de IA inflasse artificialmente seu saldo de tokens. No segundo caso, a IA descobriu uma vulnerabilidade que permitia a um chamador redirecionar o saque de taxas. Esses exemplos, sem dúvida, mostram a sofisticação dos ataques a DeFi gerados por IA.
Em ambos os cenários, os agentes de IA não apenas identificaram a falha, mas também geraram e executaram os scripts que transformaram essa falha em lucro real (simulado). Isso demonstra, afinal, que a cadeia completa de ataque pode ser totalmente automatizada.
A Economia por Trás dos Ataques a DeFi com IA
A pesquisa também lança luz sobre a crescente viabilidade econômica de usar IA para realizar ataques a DeFi. O custo total para operar o agente de IA em todo o conjunto de contratos do teste foi de apenas 3.476 dólares, com um custo médio de apenas 1,22 dólar por contrato.
À medida que os modelos de IA se tornam mais baratos e capazes, a economia se inclina cada vez mais a favor da automação. Para um ator mal-intencionado, consequentemente, o retorno sobre o investimento (ROI) de implantar um exército de agentes de IA para varrer as blockchains se torna extremamente atraente. Isso pode levar a uma explosão no número de ataques a DeFi.
Os pesquisadores argumentam que essa tendência reduzirá drasticamente a janela de tempo entre a implantação de um contrato vulnerável e seu ataque. Em ambientes DeFi, onde o capital é público e os bugs podem ser monetizados instantaneamente, a velocidade do ataque, sem dúvida, se torna uma vantagem crítica.
Implicações dos Ataques a DeFi: Uma Ameaça de Domínio Geral
Embora as descobertas da pesquisa se concentrem no ecossistema de finanças descentralizadas, os autores emitem um alerta severo: as capacidades subjacentes demonstradas pelos agentes de IA não são específicas de domínio. Os ataques a DeFi são, em outras palavras, apenas o começo.
Os mesmos processos de raciocínio lógico e de geração de código que permitem a um agente explorar um contrato inteligente podem ser aplicados a vulnerabilidades em softwares convencionais. Isso inclui, por exemplo, a infraestrutura crítica que suporta não apenas o mercado de criptomoedas, mas toda a internet.
À medida que os custos dos modelos de IA diminuem, a varredura automatizada em busca de vulnerabilidades provavelmente se expandirá. Qualquer serviço ou sistema que se interponha no caminho de ativos valiosos se tornará um alvo potencial, tornando os ataques a DeFi um modelo para outras áreas.
Um Alerta, Não uma Previsão: A Defesa Precisa Acelerar
Os autores apresentam seu trabalho mais como um alerta do que como uma previsão fatalista. O objetivo, acima de tudo, é destacar que os modelos de IA atuais já podem realizar tarefas que, até muito recentemente, exigiriam atacantes humanos altamente qualificados. A pesquisa serve como uma prova de que os ataques a DeFi autônomos não são mais uma questão de “se”, mas de “quando”.
A questão fundamental que se coloca agora para os desenvolvedores e auditores de segurança é com que rapidez a defesa pode evoluir. As ferramentas de segurança e as práticas de desenvolvimento precisam, portanto, se adaptar a um novo paradigma, onde o adversário pode ser um enxame de agentes de IA incansáveis.
Conclusão: O Novo Paradigma da Segurança e os Ataques a DeFi
A pesquisa da Anthropic Fellows e da MATS é um marco na compreensão da intersecção entre Inteligência Artificial e cibersegurança. Ela demonstra de forma conclusiva que os agentes de IA evoluíram de meros assistentes para potenciais armas autônomas, capazes de executar ataques a DeFi complexos do início ao fim. O ecossistema de finanças descentralizadas é, nesse sentido, apenas o primeiro campo de batalha.
A viabilidade técnica e econômica da exploração automatizada muda fundamentalmente o cálculo de risco para qualquer desenvolvedor. A janela para corrigir vulnerabilidades está se fechando rapidamente e, além disso, a superfície de ataque está se expandindo. O cenário, portanto, não é de pânico, mas de urgência.
A comunidade de desenvolvedores, especialmente no espaço de criptomoedas, precisa acelerar a pesquisa e o desenvolvimento de ferramentas de defesa baseadas em IA. A batalha do futuro, afinal, não será apenas entre humanos, mas entre IAs defensivas e ofensivas. A corrida armamentista da cibersegurança, com os ataques a DeFi como seu primeiro grande palco, acaba de começar.
Fontes de referência:
- Pesquisa da Anthropic Mostra Agentes de IA se Aproximando da Capacidade de Ataque Real em DeFi
- Anthropic revela que agentes de IA já conseguem realizar ataques contra criptomoedas
- O que novas pesquisas revelam sobre os riscos impulsionados por IA em DeFi
Alguns artigos que você vai gostar:
- Como Usar IA para Criar Conteúdo 10x Mais Rápido
- Tendências de Marketing Digital para 2026: Guia Completo
- O que é uma Ferramenta de Rastreamento de Palavras-chave?
- Usando o ChatGPT para otimização de SEO e Marketing Digital
- Anthropic Prepara IPO em 2026 (Disputa Acirrada com a OpenAI)

