A IA agora se tornou o participante mais ativo nos ataques Web3. Em 2025, os invasores usam modelos generativos para automatizar phishing, manipular agentes inteligentes e dimensionar explorações sensíveis ao contexto mais rapidamente do que as equipes podem responder. Aqui está o que seu protocolo precisa fazer sobre isso:
O phishing não é mais feito à mão. Os LLMs agora podem simular tons confiáveis, imitar mensagens da equipe e gerar iscas direcionadas à carteira com alto sucesso. As taxas de cliques de mensagens criadas por IA correspondem ao phishing escrito por humanos. Eles operam em uma escala que os humanos nunca poderiam.
Os sites clones levam menos de 60 segundos. Os front-ends são raspados e regenerados usando ferramentas de IA. Pop-ups de carteira, prompts de transação, cores da marca, tudo replicado com precisão de quase pixels. Os usuários raramente sabem até que seja tarde demais. Credenciais e fundos fluem imediatamente.
Os LLMs simulam o comportamento do contrato, testam caminhos de execução e identificam vulnerabilidades na lógica de permissão. Em vez de procurar CVEs conhecidos, os invasores desenvolvem novas explorações a partir do código-fonte aberto. Esses modelos melhoram a cada interação.
Os bots orientados por IA agora fazem parte da infraestrutura de protocolo, DAOs e fluxos de trabalho do usuário. Eles podem ser enganados por meio de injeção imediata, adulteração de memória ou poluição entre contextos. O que parece automação se torna uma superfície de ataque.
As equipes de segurança devem combinar automação com defesa. Esse cenário de ameaças não pode ser resolvido com auditorias estáticas ou revisão manual lenta.
Detalhamos vetores emergentes e estratégias de defesa em nosso novo relatório:
1,16K