La IA se ha convertido en el participante más activo en los ataques de Web3. En 2025, los atacantes utilizarán modelos generativos para automatizar el phishing, manipular agentes inteligentes y escalar exploits contextuales más rápido de lo que los equipos pueden responder. Esto es lo que tu protocolo necesita hacer al respecto:
El phishing ya no es hecho a mano. Los LLM ahora pueden simular tonos de confianza, imitar mensajes de equipo y generar cebos dirigidos a billeteras con gran éxito. Las tasas de clics de los mensajes elaborados por IA igualan a las de los mensajes de phishing escritos por humanos. Operan a una escala que los humanos nunca podrían.
Los sitios clonados tardan menos de 60 segundos. Las interfaces se extraen y regeneran utilizando herramientas de IA. Las ventanas emergentes de billetera, los avisos de transacción, los colores de la marca, todo replicado con una precisión casi pixel a pixel. Los usuarios rara vez lo saben hasta que es demasiado tarde. Las credenciales y los fondos fluyen inmediatamente.
Los LLMs simulan el comportamiento de contratos, prueban rutas de ejecución e identifican vulnerabilidades en la lógica de permisos. En lugar de escanear en busca de CVEs conocidos, los atacantes evolucionan nuevos exploits a partir de código de código abierto. Estos modelos mejoran con cada interacción.
Los bots impulsados por IA son ahora parte de la infraestructura de protocolos, DAOs y flujos de trabajo de los usuarios. Pueden ser engañados a través de inyección de prompts, manipulación de memoria o contaminación de contexto cruzado. Lo que parece automatización se convierte en una superficie de ataque.
Los equipos de seguridad deben combinar la automatización con la defensa. Este panorama de amenazas no puede ser abordado con auditorías estáticas o revisiones manuales lentas.
Desglosamos los vectores emergentes y las estrategias de defensa en nuestro nuevo informe:
1,15K