Saltar al contenido principal

El hackeo de $ 1.22 : El CTO de Ledger afirma que la IA ha roto la economía de la seguridad cripto

· 15 min de lectura
Dora Noda
Software Engineer

Un exploit de contrato inteligente funcional ahora cuesta alrededor de $1.22 en créditos de API para ser generado. Esa cifra única, revelada por el equipo rojo de Anthropic a finales de 2025 y reforzada por un generador de exploits académico que extrajo hasta $8.59 millones por ataque, es el trasfondo de la advertencia que el CTO de Ledger, Charles Guillemet, emitió el 5 de abril de 2026: la inteligencia artificial no está rompiendo la criptografía. Está rompiendo la economía de la seguridad cripto, y las defensas tradicionales de la industria nunca fueron valoradas para este régimen.

Si 2024 fue el año en que la IA reescribió cómo los desarrolladores envían código, 2026 es el año en que reescribió cómo los atacantes envían exploits. La asimetría se ha invertido tan rápido que incluso las firmas que han pasado una década construyendo carteras de hardware (hardware wallets) se preguntan ahora si todo el modelo de confianza necesita una reescritura.

Lo que Guillemet dijo realmente

Al hablar públicamente a principios de abril, Guillemet —director de tecnología en Ledger y veterano investigador de seguridad de hardware— planteó una tesis incómoda. La curva del costo por ataque para el sector cripto se está colapsando porque los modelos de lenguaje de gran tamaño (LLM) son lo suficientemente competentes como para realizar las partes más difíciles del trabajo de un atacante: leer Solidity desconocido, razonar sobre máquinas de estado, generar transacciones de exploit plausibles e iterar contra bifurcaciones (forks) en cadena hasta que algo funcione.

Su enfoque fue deliberadamente económico. La criptografía no es más débil hoy de lo que era en 2024. Las funciones hash siguen procesando hashes. Las curvas elípticas siguen siendo curvas. Lo que cambió es que el aporte de mano de obra detrás de un ataque exitoso —el ojo del auditor sénior, los meses de paciente ingeniería inversa— se ha comprimido en una línea de presupuesto que cabe dentro de una sola factura de Anthropic o OpenAI. "Vamos a producir una gran cantidad de código que será inseguro por diseño", advirtió Guillemet, señalando el efecto de segundo orden de los desarrolladores que envían Solidity generado por IA más rápido de lo que los revisores pueden leerlo.

La cifra de Ledger para las pérdidas del año pasado se sitúa en aproximadamente $1.4 mil millones en hackeos y exploits directamente atribuibles, con totales de estafas y fraudes más amplios que alcanzan cifras mucho mayores dependiendo de la contabilidad que se acepte. Chainalysis situó la cifra total de fondos robados en 2025 en $3.4 mil millones. La retrospectiva de CoinDesk de enero de 2026 estimó el universo más amplio de estafas y suplantación de identidad en hasta $17 mil millones. Sea cual sea la cifra en la que confíe, la línea de tendencia va en la dirección equivocada, y el argumento de Guillemet es que la trayectoria tiene ahora forma de IA.

El número de Anthropic que cambió la conversación

En diciembre de 2025, el propio equipo rojo de Anthropic publicó los resultados de SCONE-bench —una evaluación comparativa de 405 contratos inteligentes que fueron explotados realmente entre 2020 y 2025. La estadística principal fue contundente. En los 405 problemas, los modelos de frontera modernos produjeron exploits llave en mano para 207 de ellos, una tasa de éxito del 51.11%, totalizando $550.1 millones en valor robado simulado.

De manera más inquietante, cuando se apuntó a esos mismos agentes hacia 2,849 contratos recién desplegados que no tenían vulnerabilidades conocidas, tanto Claude Sonnet 4.5 como GPT-5 sacaron a la luz dos "zero-days" genuinos y produjeron exploits funcionales por valor de $3,694, a un costo de API de aproximadamente $3,476. Esa relación apenas alcanza el punto de equilibrio en el papel, pero desmantela la suposición de que el descubrimiento de zero-days requiere un equipo humano.

El trabajo académico independiente cuenta la misma historia desde el otro lado. El sistema "A1", publicado en arxiv en 2025 y actualizado hasta principios de 2026, empaqueta cualquier LLM con seis herramientas específicas del dominio —desensambladores de bytecode, ejecutores de forks, rastreadores de saldo, perfiladores de gas, suplantadores de oráculos y mutadores de estado— y lo apunta a un contrato objetivo. A1 alcanzó una tasa de éxito del 62.96% en el conjunto de datos de exploits VERITE, superando la línea de base de fuzzing anterior (ItyFuzz, 37.03%) por un margen enorme. Los costos por intento oscilaron entre $0.01 y $3.59. El mayor pago individual que modeló fue de $8.59 millones.

Estos no son números teóricos. Son el costo de entrada de un exploit. Y una vez que ese costo de entrada alcanza el precio de una comida rápida, la pregunta deja de ser "¿pueden los atacantes costear esto?" y pasa a ser "¿pueden los defensores permitirse pasar algo por alto?".

El desajuste de rendimiento de 1000:1

Aquí está la parte del panorama que las firmas de auditoría todavía luchan por articular. Los auditores cobran por contrato. Revisan una base de código a la vez, a menudo durante semanas, y su conjunto de herramientas de IA —cuando las usan— se acopla a un flujo de trabajo con humanos en el proceso y facturas que enviar. Los atacantes, por el contrario, pueden alquilar los mismos modelos, apuntarlos a miles de contratos en paralelo y solo pagar cuando algo funciona.

Un artículo de Frontiers in Blockchain de principios de 2026 capturó la asimetría en una sola línea: un atacante obtiene beneficios con aproximadamente $6,000 en valor extraíble, mientras que el punto de equilibrio de un defensor está más cerca de los $60,000. La brecha de 10x no se debe a que la defensa sea técnicamente más difícil; es porque la defensa tiene que ser completa, y el ataque solo tiene que ser correcto una vez.

Sume eso al desajuste de volumen —llamémoslo 1000:1 entre los contratos que un atacante puede escanear y los contratos que una firma de auditoría puede revisar— y se llega a la conclusión de Guillemet casi mecánicamente. Ningún presupuesto de auditoría puede cerrar esta brecha. La economía simplemente no funciona.

Lo que los grandes éxitos de 2026 ya nos dicen

Los hacks que realmente han ocurrido en 2026 no se presentan todos como historias de "exploits de IA" a simple vista. Las dos mayores pérdidas del año hasta ahora son recordatorios aleccionadores de que las herramientas de ataque asistidas por LLM se construyen sobre técnicas más antiguas y aburridas.

El 1 de abril de 2026, Drift Protocol en Solana perdió 285 millones de dólares — más de la mitad de su TVL — en un ataque que tanto TRM Labs como Elliptic atribuyeron al Lazarus Group de Corea del Norte. El mecanismo fue la ingeniería social, no un bug de Solidity. Los atacantes pasaron meses entablando relaciones con el equipo de Drift, y luego abusaron de la función de "nonce duradero" de Solana para conseguir que los miembros del Consejo de Seguridad firmaran previamente transacciones cuyo efecto no comprendían. Una vez que cambió el control administrativo, los atacantes añadieron a la lista blanca un token sin valor (CVT) como colateral y lo utilizaron para drenar USDC, SOL y ETH reales.

Dieciocho días después, Kelp DAO sufrió un golpe de 292 millones de dólares a través de su puente impulsado por LayerZero — que ahora es el mayor exploit de DeFi de 2026. El atacante convenció a la capa de mensajería cross-chain de LayerZero de que había llegado una instrucción válida desde otra red, y el puente de Kelp liberó debidamente 116,500 rsETH a una dirección controlada por el atacante. De nuevo Lazarus, según la mayoría de las atribuciones.

¿Qué tiene esto que ver con la IA? Dos cosas. Primero, el reconocimiento que hace posible la ingeniería social de "larga cola" (long-tail) — el mapeo de perfiles, el ajuste del tono del mensaje, la elección del momento adecuado en el calendario de un objetivo — es exactamente en lo que los LLM son buenos. El pronóstico de CertiK para 2026 ya señala al phishing, los deepfakes y el compromiso de la cadena de suministro como los vectores de ataque dominantes para el año, y observa un salto del 207% en las pérdidas por phishing solo de diciembre de 2025 a enero de 2026. Segundo, la IA reduce la barrera para las operaciones en paralelo: donde un equipo del nivel de Lazarus podía ejecutar unas pocas campañas a la vez en 2024, las herramientas de IA permiten que un equipo mucho más pequeño ejecute docenas.

Un recordatorio de lo granular que puede llegar a ser esto ocurrió en abril de 2026 cuando Zerion, una popular aplicación de billetera, reveló que los atacantes utilizaron ingeniería social impulsada por IA para drenar aproximadamente 100,000 dólares de sus hot wallets. La cifra es pequeña para los estándares de 2026. La técnica — la IA generando el guion de suplantación, la IA generando la página de soporte falsa, la IA generando el correo electrónico de phishing — es de lo que advierte Guillemet.

Por qué "auditar con más fuerza" no es una respuesta

La respuesta instintiva de la industria es financiar más auditorías. Esa respuesta no percibe la forma del problema.

Las auditorías escalan linealmente con las horas de los auditores. Los ataques ahora escalan con créditos de API. Incluso si cada firma de auditoría de primer nivel duplicara su personal mañana, la superficie de ataque del atacante seguiría creciendo 10 veces más rápido, porque cualquier persona con una clave de API y una comprensión básica de Solidity puede ahora ejecutar escaneos ofensivos continuos en todo el universo de contratos desplegados.

Peor aún, las auditorías revisan el código en un momento dado. El código generado por IA se envía continuamente, y la advertencia de "inseguro por diseño" de Guillemet sugiere que la tasa de introducción de errores está subiendo, no bajando. Un estudio de 2026 citado por la comunidad de seguridad de blockchain encontró que la autoría de Solidity asistida por LLM se correlaciona con errores sutiles de reentrada y de control de acceso que los revisores humanos, fatigados por leer código formateado por máquinas, pasan por alto en tasas más altas que los mismos errores en código escrito por humanos.

El planteamiento honesto es que las auditorías siguen siendo necesarias pero no suficientes. La respuesta real que impulsa Guillemet — y de la que se hace eco el propio equipo de red team de Anthropic — es estructural.

El stack defensivo que realmente sobrevive a esto

Tres categorías de defensa escalan plausiblemente contra la ofensiva acelerada por IA, y las tres son incómodas para la parte de la industria que se ha optimizado para la velocidad de envío.

Verificación formal. Herramientas como Certora, Halmos y, cada vez más, los stacks de verificación incluidos en Move (Sui, Aptos) y Cairo (Starknet) tratan la corrección como un problema matemático en lugar de un problema de revisión. Si una propiedad se demuestra, ninguna cantidad de fuzzing de IA puede romperla. La contrapartida es el esfuerzo de ingeniería: escribir invariantes significativos es difícil, lento e implacable. Pero es una de las pocas defensas cuyo costo no escala con el cómputo del atacante.

Raíces de confianza de hardware. La propia línea de productos de Ledger es el ejemplo obvio, pero la categoría más amplia incluye enclaves seguros, custodia MPC y primitivas emergentes de atestación de conocimiento cero (zero-knowledge). El principio es el mismo: tomar la acción más trascendental — firmar una transacción — y forzarla a través de un sustrato al que una campaña de phishing impulsada por LLM no pueda llegar. El planteamiento de Guillemet de "asumir que los sistemas pueden fallar y fallarán" es esencialmente un argumento para trasladar la autoridad de firma fuera de las computadoras de propósito general.

Defensa de IA contra IA. El artículo de Anthropic de diciembre de 2025 defiende que los mismos agentes capaces de generar exploits deberían desplegarse para generar parches. En la práctica, esto significa un monitoreo continuo impulsado por IA de las mempools, los contratos desplegados y el comportamiento de las claves de administrador, señalando anomalías de la misma manera que lo hacen los sistemas de detección de fraude para la banca tradicional. La economía es imperfecta (los costos del defensor siguen siendo más altos que los del atacante), pero al menos sitúan a ambas partes en la misma curva de cómputo.

El patrón en los tres casos es el mismo: dejar de confiar en los humanos en el proceso para las partes rápidas de la seguridad, y reservar el juicio humano para las partes estructurales lentas y costosas.

Lo que esto significa para los desarrolladores en este momento

Para los equipos que lancen productos en 2026, la advertencia de Guillemet se traduce en algunos cambios concretos:

  • Trate el código generado por IA como no confiable por defecto. Sométalo a una verificación formal o a pruebas basadas en propiedades antes de que llegue a la mainnet, independientemente de qué tan limpio parezca.
  • Mueva las claves de administrador a hardware. El esquema multi-sig con firmantes "hot" ya no es una postura de seguridad aceptable para contratos de nivel de tesorería; el incidente de Drift demostró que incluso los miembros del equipo "confiables" pueden ser manipulados mediante ingeniería social para pre-firmar transacciones destructivas.
  • Asuma que su superficie de phishing es mayor que su superficie de código. El drenado de Zerion ($100K) y el salto generalizado del 207 % en el phishing sugieren que el dólar más barato del atacante todavía apunta a los humanos, no a Solidity.
  • Presupueste para un monitoreo continuo y automatizado. Una cadencia de auditoría semanal no es una defensa contra un atacante que ejecuta herramientas de nivel SCONE-bench las 24 horas del día, los 7 días de la semana.

Ninguna de estas son ideas nuevas. Lo que cambió es la curva de urgencia. En la era previa a los LLM, una organización podía sobrevivir a fallos en cualquiera de estas áreas si las demás eran sólidas. En 2026, la asimetría de costos es demasiado pronunciada para ese tipo de descuido.

La lectura honesta

Es tentador leer la advertencia de Guillemet como si Ledger estuviera barriendo para casa — un proveedor de monederos de hardware naturalmente aboga por el hardware. Esa lectura sería un error. El mismo argumento está siendo planteado de manera independiente por el red team de Anthropic, por grupos académicos detrás de A1 y SCONE-bench, por el pronóstico de CertiK para 2026 y por empresas de análisis on-chain que observan los totales mensuales de hackeos. El consenso de la industria está convergiendo en un solo punto: el costo de un exploit competente ha disminuido en uno o dos órdenes de magnitud, y el stack defensivo debe evolucionar en consecuencia.

Lo que es genuinamente nuevo es que este es el primer gran cambio asimétrico en la seguridad cripto desde la ola de demanda de auditorías del verano DeFi de principios de 2020. Esa ola produjo una generación de firmas de auditoría, plataformas de bug-bounty y startups de verificación formal. La ola de 2026 producirá algo más: infraestructura continua monitoreada por IA, firma basada en hardware como estándar y un escepticismo mucho más severo ante cualquier contrato cuyo modelo de seguridad aún dependa de "lo detectaremos en la revisión".

La cifra de $1.22 de Guillemet — incluso si esa cifra exacta fuera de Anthropic y no de Ledger — es el tipo de estadística que pone fin a una era. La era que termina es aquella en la que la mano de obra del atacante era el cuello de botella. La era que comienza es aquella en la que el cuello de botella es cualquier cosa que el defensor no haya automatizado todavía.

BlockEden.xyz opera infraestructura de RPC e indexación de blockchain en Sui, Aptos, Ethereum, Solana y más de 20 redes adicionales, con monitoreo de anomalías asistido por IA integrado en la ruta de las solicitudes. Si está reconstruyendo su postura de seguridad para el panorama de amenazas post-LLM, explore nuestros servicios de infraestructura o contáctenos para hablar sobre el monitoreo continuo de su protocolo.

Fuentes