Saltar al contenido principal

Los agentes de IA ahora pueden detectar el 92 % de los exploits de DeFi — Pero también pueden crearlos

· 10 min de lectura
Dora Noda
Software Engineer

Un agente de IA creado específicamente para este propósito acaba de detectar vulnerabilidades responsables de $ 96.8 millones en pérdidas de DeFi, capturando exploits que un agente GPT-5.1 de propósito general pasó por alto en 58 de 90 contratos. Mientras tanto, el benchmark EVMbench de OpenAI y Paradigm muestra que los modelos de vanguardia ahora pueden generar exploits funcionales para el 71 % de las fallas conocidas en contratos inteligentes. La misma tecnología que protege los protocolos DeFi también puede atacarlos, y la carrera armamentista se está acelerando más rápido de lo que la mayoría de los equipos creen.

El problema de los $ 3,400 millones que los auditores siguen pasando por alto

El robo de criptomonedas alcanzó los $ 3,400 millones en 2025 según Chainalysis, y la incómoda realidad es que muchos contratos explotados ya habían superado auditorías profesionales. Solo el hackeo de Bybit representó $ 1,400 millones, mientras que protocolos como Cetus ($ 223 millones) y Balancer ($ 128 millones) sufrieron brechas de seguridad a pesar de contar con prácticas de seguridad establecidas.

El problema no es que los auditores sean incompetentes. Es que los revisores humanos enfrentan un desafío de escalabilidad imposible: el valor total bloqueado (TVL) de DeFi ha superado los $ 119,000 millones, la complejidad del código aumenta y la superficie de ataque se expande cada vez que se despliega un nuevo protocolo. Un solo auditor que revise un protocolo complejo podría pasar semanas analizando las interacciones entre docenas de contratos y, aun así, pasar por alto ese caso extremo que un atacante decidido logra encontrar.

Este es precisamente el vacío que los agentes de seguridad de IA están llenando ahora, y los resultados de los primeros benchmarks sugieren un cambio fundamental en el funcionamiento de la seguridad de los contratos inteligentes.

La tasa de detección del 92 % de Cecuro: lo que los números significan realmente

En febrero de 2026, la empresa de seguridad de IA Cecuro lanzó un benchmark de código abierto que puso a prueba su agente de seguridad especializado contra 90 contratos DeFi del mundo real explotados entre octubre de 2024 y principios de 2026. Los resultados fueron sorprendentes.

El agente especializado de Cecuro señaló vulnerabilidades en el 92 % de los contratos explotados, identificando fallas vinculadas a $ 96.8 millones en pérdidas verificadas. En comparación, un agente de codificación base impulsado por GPT-5.1 detectó solo el 34 % de las vulnerabilidades, cubriendo apenas $ 7.5 millones en pérdidas.

La brecha de rendimiento de 2.7x no es solo un juego de números. Revela tres modos de falla críticos en la IA de propósito general cuando se aplica a la seguridad de contratos inteligentes:

1. Falta de retroalimentación verificable. Los modelos de propósito general producen análisis que suenan plausibles pero no tienen un mecanismo para verificar si una "vulnerabilidad" detectada es realmente explotable. El agente de Cecuro integra marcos de prueba específicos del dominio que validan los hallazgos frente a entornos de ejecución reales.

2. Cobertura sistemática insuficiente. Un agente GPT-5.1 que analiza un contrato a menudo se detiene después de identificar el primer problema significativo. El agente de Cecuro implementa fases de revisión estructuradas —análisis de control de acceso, comprobaciones de manipulación de estado, revisión de interacción entre contratos— asegurando una cobertura integral.

3. Saturación de contexto. Los protocolos DeFi complejos involucran múltiples contratos interconectados, dependencias de oráculos externos y mecanismos de gobernanza. Los modelos de propósito general alcanzan limitaciones de contexto y comienzan a sacar conclusiones prematuras. Los agentes especializados utilizan heurísticas específicas de DeFi para priorizar qué interacciones son más importantes.

Cecuro publicó el conjunto de datos y el marco de evaluación en GitHub, mientras que retuvo el agente de seguridad completo para evitar su uso indebido ofensivo, un enfoque de divulgación responsable que permite a la industria verificar las afirmaciones sin convertir la herramienta en un arma.

EVMbench: OpenAI y Paradigm cuantifican la frontera de la seguridad de la IA

El benchmark de Cecuro no fue la única evaluación importante que apareció a principios de 2026. En febrero, OpenAI y Paradigm lanzaron conjuntamente EVMbench, un benchmark que evalúa a los agentes de IA en tres dimensiones de la seguridad de los contratos inteligentes: detección de vulnerabilidades, parcheo de código defectuoso y explotación de debilidades conocidas.

EVMbench se basa en 117 vulnerabilidades seleccionadas de 40 auditorías, principalmente provenientes de competencias abiertas de auditoría de código. Los resultados muestran un panorama matizado:

  • Generación de exploits: GPT-5.3-Codex ejecutándose a través de Codex CLI alcanza el 71.0 %, produciendo exploits funcionales para casi tres cuartas partes de las vulnerabilidades conocidas. Esto representa una mejora dramática sobre el 33.3 % de GPT-5 y sugiere que la capacidad de explotación está escalando rápidamente con cada generación de modelos.
  • Detección: Los agentes con frecuencia se detienen después de identificar un solo problema en lugar de auditar exhaustivamente toda la base de código, dejando vulnerabilidades críticas sin descubrir.
  • Parcheo: Mantener la funcionalidad completa del contrato mientras se eliminan vulnerabilidades sutiles resulta desafiante; los agentes a menudo introducen nuevos errores mientras corrigen los antiguos.

La asimetría es reveladora: es más fácil para la IA romper cosas que arreglarlas. Esto refleja una dinámica fundamental en la ciberseguridad, pero con los agentes de IA, la brecha se está ampliando a una velocidad sin precedentes.

La carrera armamentista entre la ofensa y la defensa ya está aquí

El equipo de investigación de Anthropic publicó hallazgos que muestran que los modelos de IA de vanguardia ahora pueden descubrir y explotar de forma autónoma nuevas vulnerabilidades de día cero (zero-day) en contratos inteligentes. Cuando se probaron contra contratos explotados después del corte de conocimiento de marzo de 2025 de los modelos, modelos como Claude Opus 4.5 y GPT-5 generaron colectivamente exploits por un valor de $ 4.6 millones en pérdidas simuladas.

Más alarmante aún: tanto Claude Sonnet 4.5 como GPT-5 descubrieron dos nuevas vulnerabilidades de día cero con exploits valorados en $ 3,694, prueba de que la explotación autónoma rentable es técnicamente factible. ¿El costo? Solo $ 1.22 por escaneo de contrato, con una ganancia neta de $ 109 por cada vulnerabilidad de día cero identificada con éxito.

Durante el último año, los ingresos por exploits de los modelos de vanguardia en problemas de benchmark se han duplicado aproximadamente cada 1.3 meses. Un ciberdelincuente con unos pocos cientos de dólares de presupuesto de computación ahora puede dirigir un agente de IA hacia miles de contratos, dejar que escanee en busca de vulnerabilidades y genere exploits funcionales sin escribir una sola línea de código.

Esto crea un imperativo urgente: si los atacantes impulsados por IA pueden escanear todo el ecosistema DeFi de forma económica y autónoma, los defensores necesitan herramientas de IA igualmente capaces funcionando continuamente. El modelo tradicional de auditorías únicas antes del despliegue ya no es suficiente.

Propósito específico frente a propósito general: por qué gana la especialización

El benchmark de Cecuro destaca un patrón emergente en la seguridad de la IA: la optimización específica del dominio ofrece ganancias de rendimiento de 2 a 3 veces superiores a las de los modelos de propósito general. Esto no es exclusivo de los contratos inteligentes —dinámicas similares se observan en el diagnóstico por imágenes, el análisis legal y la revisión de código—, pero lo que está en juego en DeFi hace que la diferencia sea existencial.

Varios factores explican por qué los agentes de seguridad diseñados específicamente superan a los modelos generales:

Curaduría de datos de entrenamiento. El agente de Cecuro fue entrenado con conjuntos de datos de exploits verificados, no solo con tareas de completado de código. Comprende los patrones específicos que conducen a ataques de reentrada, manipulación de oráculos, exploits de préstamos flash (flash loans) y escalada de privilegios, no como conceptos abstractos, sino como patrones de código concretos con rutas de explotación conocidas.

Metodología de revisión estructurada. En lugar de un análisis de forma libre, los agentes de propósito específico implementan metodologías de auditoría sistemáticas similares a las utilizadas por firmas como Trail of Bits, OpenZeppelin y Certora. Cada fase de revisión cubre categorías de vulnerabilidades específicas con la profundidad adecuada.

Integración con entornos de ejecución. Los agentes de propósito específico pueden realizar forks del estado de la mainnet, desplegar contratos de prueba y validar exploits en entornos simulados. Los modelos de propósito general razonan sobre el código de forma estática, perdiendo las interacciones dinámicas que solo surgen en tiempo de ejecución.

El panorama competitivo está evolucionando rápidamente. AuditAgent de Nethermind ha sido desplegado en casos de estudio con UBS y LUKSO. Consensys Diligence lanzó Chonky, que combina agentes de IA con orientación de expertos humanos. Sherlock y Veritas Protocol ofrecen herramientas de detección automatizadas. El consenso que emerge en toda la industria es que los enfoques híbridos que combinan la detección por IA con la experiencia humana capturan más del 95 % de las vulnerabilidades, en comparación con el 60-70 % de las auditorías exclusivamente manuales o el 70-85 % de las auditorías solo por IA.

Qué significa esto para los equipos de protocolos DeFi

Las implicaciones para cualquier equipo que despliegue o mantenga contratos inteligentes DeFi son significativas:

El monitoreo continuo se vuelve obligatorio. Las auditorías únicas antes del despliegue son necesarias pero insuficientes. Los agentes de IA que escanean vulnerabilidades las 24 horas del día, los 7 días de la semana, integrados con sistemas de monitoreo que pueden pausar los contratos cuando se detectan amenazas, se convertirán en infraestructura estándar.

Los costos de auditoría se están reduciendo. Las auditorías asistidas por IA ya son 10 veces más rápidas que las revisiones puramente manuales. A medida que las herramientas de propósito específico maduren, el escaneo de seguridad integral será accesible para protocolos más pequeños que antes no podían permitirse auditores de primer nivel.

La ventaja del defensor es real, pero limitada en el tiempo. Los agentes de seguridad de propósito específico superan actualmente a la IA de propósito general en defensa. Pero la rápida mejora en las capacidades de exploit de los modelos de frontera (que se duplican cada 1.3 meses) significa que la ventana para establecer una infraestructura defensiva se está cerrando.

Los benchmarks abiertos aceleran todo el campo. Tanto el conjunto de datos de código abierto de Cecuro como EVMbench de OpenAI/Paradigm permiten que cualquier equipo evalúe y mejore sus herramientas de seguridad frente a exploits del mundo real. Los protocolos que no están probando sus defensas contra estos benchmarks se están quedando atrás.

El camino por delante: Auditores de IA como infraestructura

Los contratos inteligentes aseguran rutinariamente más de $ 100 mil millones en criptoactivos de código abierto. La convergencia de las capacidades de ataque de la IA y las capacidades de defensa de la IA está transformando el panorama de la seguridad, pasando de ser un compromiso de consultoría periódico a un requisito de infraestructura continua.

Los datos del benchmark de Cecuro, EVMbench y la investigación ofensiva de Anthropic apuntan a la misma conclusión: el futuro de la seguridad de los contratos inteligentes no es humano o IA —son sistemas de IA guiados por humanos que ejecutan agentes de seguridad de propósito específico que entienden DeFi a un nivel especializado de dominio.

Los equipos que traten la auditoría por IA como algo opcional se encontrarán cada vez más defendiéndose contra atacantes que la tratan como un procedimiento operativo estándar. En la seguridad de DeFi, la asimetría siempre ha favorecido a los atacantes. Los agentes de IA de propósito específico son la primera tecnología con el potencial de revertir esa ecuación, pero solo si la industria los adopta antes de que el lado ofensivo madure por completo.

BlockEden.xyz proporciona una infraestructura de API de blockchain robusta en la que confían los protocolos DeFi y los equipos de seguridad para el acceso a datos on-chain en tiempo real —esencial para el monitoreo continuo y la detección de amenazas que exige la seguridad impulsada por IA. Explore nuestro mercado de APIs para construir sobre una infraestructura diseñada para la velocidad y confiabilidad que requiere la seguridad DeFi.