Saltar al contenido principal

Coprocesadores ZK: La infraestructura que rompe la barrera de computación de la blockchain

· 17 min de lectura
Dora Noda
Software Engineer

Cuando Ethereum procesa transacciones, cada cálculo ocurre on-chain: verificable, seguro y extremadamente costoso. Esta limitación fundamental ha restringido lo que los desarrolladores pueden construir durante años. Pero una nueva clase de infraestructura está reescribiendo las reglas: los coprocesadores ZK están aportando computación ilimitada a las blockchains con recursos limitados sin sacrificar la seguridad trustless.

Para octubre de 2025, el coprocesador ZK de Brevis Network ya había generado 125 millones de pruebas de conocimiento cero, respaldado más de 2.8milmillonesenvalortotalbloqueadoyverificadomaˊsde2.8 mil millones en valor total bloqueado y verificado más de 1 mil millones en volumen de transacciones. Esta ya no es una tecnología experimental; es una infraestructura de producción que permite aplicaciones que antes eran imposibles on-chain.

El cuello de botella de computación que definió la blockchain

Las blockchains enfrentan un trilema inherente: pueden ser descentralizadas, seguras o escalables, pero lograr las tres simultáneamente ha resultado difícil. Los contratos inteligentes en Ethereum pagan gas por cada paso computacional, lo que hace que las operaciones complejas sean prohibitivamente costosas. ¿Desea analizar el historial completo de transacciones de un usuario para determinar su nivel de lealtad? ¿Calcular recompensas de juego personalizadas basadas en cientos de acciones on-chain? ¿Ejecutar inferencia de aprendizaje automático para modelos de riesgo DeFi?

Los contratos inteligentes tradicionales no pueden hacer esto de manera económica. Leer datos históricos de la blockchain, procesar algoritmos complejos y acceder a información cross-chain requiere una computación que llevaría a la quiebra a la mayoría de las aplicaciones si se ejecutara en la Capa 1. Esta es la razón por la que los protocolos DeFi utilizan una lógica simplificada, los juegos dependen de servidores off-chain y la integración de IA sigue siendo en gran medida conceptual.

La solución temporal siempre ha sido la misma: mover la computación fuera de la cadena (off-chain) y confiar en una parte centralizada para ejecutarla correctamente. Pero esto anula todo el propósito de la arquitectura trustless de la blockchain.

El surgimiento del coprocesador ZK: ejecución off-chain, verificación on-chain

Los coprocesadores de conocimiento cero (ZK) resuelven esto introduciendo un nuevo paradigma computacional: "computación off-chain + verificación on-chain". Permiten que los contratos inteligentes deleguen el procesamiento pesado a una infraestructura especializada fuera de la cadena, para luego verificar los resultados on-chain utilizando pruebas de conocimiento cero, sin confiar en ningún intermediario.

Así es como funciona en la práctica:

  1. Acceso a datos: El coprocesador lee datos históricos de la blockchain, el estado cross-chain o información externa cuya consulta sería prohibitiva en términos de gas on-chain.
  2. Computación off-chain: Los algoritmos complejos se ejecutan en entornos especializados optimizados para el rendimiento, no limitados por los topes de gas.
  3. Generación de pruebas: Se genera una prueba de conocimiento cero que demuestra que la computación se ejecutó correctamente sobre entradas específicas.
  4. Verificación on-chain: El contrato inteligente verifica la prueba en milisegundos sin volver a ejecutar la computación ni ver los datos sin procesar.

Esta arquitectura es económicamente viable porque generar pruebas off-chain y verificarlas on-chain cuesta mucho menos que ejecutar la computación directamente en la Capa 1. El resultado: los contratos inteligentes obtienen acceso a una potencia computacional ilimitada manteniendo las garantías de seguridad de la blockchain.

La evolución: de zkRollups a coprocesadores ZK

La tecnología no surgió de la noche a la mañana. Los sistemas de pruebas de conocimiento cero han evolucionado a través de distintas fases:

Los L2 zkRollups fueron pioneros en el modelo "computar off-chain, verificar on-chain" para escalar el rendimiento de las transacciones. Proyectos como zkSync y StarkNet agrupan miles de transacciones, las ejecutan fuera de la cadena y envían una única prueba de validez a Ethereum, aumentando drásticamente la capacidad mientras heredan la seguridad de Ethereum.

Las zkVMs (máquinas virtuales de conocimiento cero) generalizaron este concepto, permitiendo que cualquier computación arbitraria sea probada como correcta. En lugar de limitarse al procesamiento de transacciones, los desarrolladores podrían escribir cualquier programa y generar pruebas verificables de su ejecución. La zkVM Pico/Prism de Brevis logra un tiempo de prueba promedio de 6.9 segundos en clústeres de 64 GPU RTX 5090, lo que hace que la verificación en tiempo real sea práctica.

Los coprocesadores ZK representan la siguiente evolución: infraestructura especializada que combina zkVMs con coprocesadores de datos para manejar el acceso a datos históricos y cross-chain. Están diseñados específicamente para las necesidades únicas de las aplicaciones blockchain: leer el historial on-chain, conectar múltiples cadenas y proporcionar a los contratos inteligentes capacidades que antes estaban bloqueadas tras APIs centralizadas.

Lagrange lanzó el primer coprocesador ZK basado en SQL en 2025, permitiendo a los desarrolladores probar consultas SQL personalizadas de grandes cantidades de datos on-chain directamente desde contratos inteligentes. Brevis le siguió con una arquitectura multicadena, soportando computación verificable en Ethereum, Arbitrum, Optimism, Base y otras redes. Axiom se centró en consultas históricas verificables con devoluciones de llamada de circuitos (circuit callbacks) para una lógica de verificación programable.

Cómo se comparan los coprocesadores ZK con las alternativas

Coprocesadores ZK vs. zkML

El aprendizaje automático de conocimiento cero (zkML) utiliza sistemas de prueba similares pero se enfoca en un problema diferente: demostrar que un modelo de IA produjo un resultado específico sin revelar los pesos del modelo ni los datos de entrada. zkML se centra principalmente en la verificación de inferencia — confirmar que una red neuronal se evaluó honestamente.

La distinción clave es el flujo de trabajo. Con los coprocesadores ZK, los desarrolladores escriben una lógica de implementación explícita, aseguran la corrección del circuito y generan pruebas para cálculos deterministas. Con zkML, el proceso comienza con la exploración de datos y el entrenamiento del modelo antes de crear circuitos para verificar la inferencia. Los coprocesadores ZK manejan lógica de propósito general; zkML se especializa en hacer que la IA sea verificable en la cadena (on-chain).

Ambas tecnologías comparten el mismo paradigma de verificación: el cálculo se ejecuta fuera de la cadena (off-chain), produciendo una prueba de conocimiento cero junto con los resultados. La cadena verifica la prueba en milisegundos sin ver las entradas sin procesar ni volver a ejecutar el cálculo. Pero los circuitos zkML están optimizados para operaciones de tensores y arquitecturas de redes neuronales, mientras que los circuitos de coprocesadores manejan consultas de bases de datos, transiciones de estado y agregación de datos entre cadenas (cross-chain).

Coprocesadores ZK vs. Rollups Optimistas

Los rollups optimistas y los rollups ZK escalan las blockchains moviendo la ejecución fuera de la cadena, pero sus modelos de confianza difieren fundamentalmente.

Los rollups optimistas asumen que las transacciones son válidas por defecto. Los validadores envían lotes de transacciones sin pruebas, y cualquiera puede impugnar lotes inválidos durante un período de disputa (generalmente 7 días). Esta finalidad retrasada significa que retirar fondos de Optimism o Arbitrum requiere esperar una semana — algo aceptable para el escalado, pero problemático para muchas aplicaciones.

Los coprocesadores ZK prueban la corrección de inmediato. Cada lote incluye una prueba de validez verificada en la cadena antes de ser aceptado. No hay período de disputa, ni suposiciones de fraude, ni retrasos de una semana para los retiros. Las transacciones logran una finalidad instantánea.

El equilibrio históricamente ha sido la complejidad y el costo. La generación de pruebas de conocimiento cero requiere hardware especializado y criptografía sofisticada, lo que hace que la infraestructura ZK sea más costosa de operar. Sin embargo, la aceleración por hardware está cambiando la economía. Pico Prism de Brevis logra una cobertura de prueba en tiempo real del 96.8 %, lo que significa que las pruebas se generan lo suficientemente rápido como para mantener el ritmo del flujo de transacciones — eliminando la brecha de rendimiento que favorecía a los enfoques optimistas.

En el mercado actual, los rollups optimistas como Arbitrum y Optimism aún dominan el valor total bloqueado. Su compatibilidad con EVM y su arquitectura más simple facilitaron su despliegue a escala. Pero a medida que la tecnología ZK madura, la finalidad instantánea y las garantías de seguridad más sólidas de las pruebas de validez están cambiando la tendencia. El escalado de Capa 2 representa un caso de uso; los coprocesadores ZK desbloquean una categoría más amplia: computación verificable para cualquier aplicación on-chain.

Aplicaciones en el mundo real: De DeFi a los juegos

La infraestructura permite casos de uso que antes eran imposibles o requerían confianza centralizada:

DeFi: Estructuras de comisiones dinámicas y programas de fidelidad

Los exchanges descentralizados tienen dificultades para implementar programas de fidelidad sofisticados porque calcular el volumen de trading histórico de un usuario en la cadena es prohibitivamente costoso. Con los coprocesadores ZK, los DEX pueden rastrear el volumen de por vida a través de múltiples cadenas, calcular niveles VIP y ajustar las comisiones de trading dinámicamente — todo verificable on-chain.

Incentra, construido sobre el zkCoprocessor de Brevis, distribuye recompensas basadas en la actividad verificada en la cadena sin exponer datos confidenciales del usuario. Los protocolos ahora pueden implementar líneas de crédito basadas en el comportamiento de pago pasado, gestión activa de posiciones de liquidez con algoritmos predefinidos y preferencias de liquidación dinámicas — todo respaldado por pruebas criptográficas en lugar de intermediarios de confianza.

Gaming: Experiencias personalizadas sin servidores centralizados

Los juegos en blockchain enfrentan un dilema de UX: registrar cada acción del jugador en la cadena es costoso, pero mover la lógica del juego fuera de la cadena requiere confiar en servidores centralizados. Los coprocesadores ZK permiten un tercer camino.

Los contratos inteligentes ahora pueden responder consultas complejas como "¿Qué billeteras ganaron este juego en la última semana, acuñaron un NFT de mi colección y registraron al menos dos horas de juego?". Esto potencia LiveOps personalizados — ofreciendo dinámicamente compras dentro del juego, emparejando oponentes, activando eventos de bonificación — basados en el historial verificado en la cadena en lugar de análisis centralizados.

Los jugadores obtienen experiencias personalizadas. Los desarrolladores conservan una infraestructura sin confianza. El estado del juego permanece verificable.

Aplicaciones cross-chain: Estado unificado sin puentes

Leer datos de otra blockchain tradicionalmente requiere puentes (bridges) — intermediarios de confianza que bloquean activos en una cadena y acuñan representaciones en otra. Los coprocesadores ZK verifican el estado entre cadenas directamente utilizando pruebas criptográficas.

Un contrato inteligente en Ethereum puede consultar las tenencias de NFT de un usuario en Polygon, sus posiciones DeFi en Arbitrum y sus votos de gobernanza en Optimism — todo sin confiar en los operadores de puentes. Esto desbloquea el scoring crediticio cross-chain, sistemas de identidad unificados y protocolos de reputación multicadena.

El panorama competitivo: quién está construyendo qué

El espacio de los coprocesadores ZK se ha consolidado en torno a varios actores clave, cada uno con enfoques arquitectónicos distintos:

Brevis Network lidera la fusión de "Coprocesador de Datos ZK + zkVM general". Su zkCoprocessor maneja la lectura de datos históricos y las consultas cross-chain, mientras que Pico / Prism zkVM proporciona computación programable para lógica arbitraria. Brevis recaudó $7,5 millones en una ronda de tokens semilla y se ha desplegado en Ethereum, Arbitrum, Base, Optimism, BSC y otras redes. Su token BREV está ganando impulso en los exchanges de cara a 2026.

Lagrange fue pionero en las consultas basadas en SQL con ZK Coprocessor 1.0, haciendo que los datos on-chain sean accesibles a través de interfaces de bases de datos familiares. Los desarrolladores pueden probar consultas SQL personalizadas directamente desde contratos inteligentes, reduciendo drásticamente la barrera técnica para construir aplicaciones intensivas en datos. Azuki, Gearbox y otros protocolos utilizan Lagrange para análisis históricos verificables.

Axiom se centra en consultas verificables con callbacks de circuitos, lo que permite a los contratos inteligentes solicitar puntos de datos históricos específicos y recibir pruebas criptográficas de su veracidad. Su arquitectura se optimiza para casos de uso donde las aplicaciones necesitan fragmentos precisos del historial de la blockchain en lugar de computación general.

Space and Time combina una base de datos verificable con consultas SQL, dirigiéndose a casos de uso empresariales que requieren tanto verificación on-chain como funcionalidad de base de datos tradicional. Su enfoque resulta atractivo para las instituciones que migran sus sistemas existentes a la infraestructura blockchain.

El mercado está evolucionando rápidamente, y 2026 es ampliamente considerado como el "Año de la Infraestructura ZK". A medida que la generación de pruebas se vuelve más rápida, la aceleración por hardware mejora y las herramientas para desarrolladores maduran, los coprocesadores ZK están pasando de ser una tecnología experimental a una infraestructura de producción crítica.

Desafíos técnicos: por qué es difícil

A pesar del progreso, persisten obstáculos significativos.

La velocidad de generación de pruebas es un cuello de botella para muchas aplicaciones. Incluso con clústeres de GPU, las computaciones complejas pueden tardar segundos o minutos en probarse; algo aceptable para algunos casos de uso, pero problemático para el trading de alta frecuencia o los juegos en tiempo real. El promedio de 6,9 segundos de Brevis representa un rendimiento de vanguardia, pero alcanzar la generación de pruebas en menos de un segundo para todas las cargas de trabajo requiere una mayor innovación en el hardware.

La complejidad del desarrollo de circuitos genera fricción para los desarrolladores. Escribir circuitos de conocimiento cero requiere conocimientos criptográficos especializados de los que carecen la mayoría de los desarrolladores de blockchain. Si bien las zkVM abstraen parte de la complejidad al permitir que los desarrolladores escriban en lenguajes familiares, la optimización de los circuitos para el rendimiento sigue exigiendo experiencia. Las mejoras en las herramientas están cerrando esta brecha, pero sigue siendo una barrera para la adopción masiva.

La disponibilidad de datos plantea desafíos de coordinación. Los coprocesadores deben mantener vistas sincronizadas del estado de la blockchain en múltiples cadenas, gestionando reorgs, finalidad y diferencias de consenso. Garantizar que las pruebas hagan referencia al estado canónico de la cadena requiere una infraestructura sofisticada, especialmente para aplicaciones cross-chain donde las diferentes redes tienen distintas garantías de finalidad.

La sostenibilidad económica sigue siendo incierta. Operar una infraestructura de generación de pruebas requiere mucho capital, GPUs especializadas y costos operativos continuos. Las redes de coprocesadores deben equilibrar los costos de las pruebas, las tarifas de los usuarios y los incentivos de los tokens para crear modelos de negocio sostenibles. Los proyectos iniciales están subsidiando los costos para impulsar la adopción, pero la viabilidad a largo plazo depende de demostrar la rentabilidad económica unitaria a escala.

La tesis de la infraestructura: la computación como una capa de servicio verificable

Los coprocesadores ZK están emergiendo como "capas de servicio verificables": APIs nativas de blockchain que brindan funcionalidad sin requerir confianza. Esto refleja cómo evolucionó la computación en la nube: los desarrolladores no construyen sus propios servidores, sino que consumen las APIs de AWS. Del mismo modo, los desarrolladores de contratos inteligentes no deberían necesitar reimplementar consultas de datos históricos o verificación de estado cross-chain; deberían llamar a una infraestructura probada.

El cambio de paradigma es sutil pero profundo. En lugar de "¿qué puede hacer esta blockchain?", la pregunta pasa a ser "¿a qué servicios verificables puede acceder este contrato inteligente?". La blockchain proporciona la liquidación y la verificación; los coprocesadores proporcionan computación ilimitada. Juntos, desbloquean aplicaciones que requieren tanto la ausencia de necesidad de confianza (trustlessness) como complejidad.

Esto se extiende más allá de DeFi y los juegos. La tokenización de activos del mundo real necesita datos off-chain verificados sobre la propiedad de bienes raíces, precios de materias primas y cumplimiento regulatorio. La identidad descentralizada requiere agregar credenciales a través de múltiples blockchains y verificar el estado de revocación. Los agentes de IA necesitan probar sus procesos de toma de decisiones sin exponer modelos propietarios. Todo esto requiere computación verificable, la capacidad exacta que proporcionan los coprocesadores ZK.

La infraestructura también cambia la forma en que los desarrolladores piensan sobre las limitaciones de la blockchain. Durante años, el mantra ha sido "optimizar la eficiencia del gas". Con los coprocesadores, los desarrolladores pueden escribir lógica como si los límites de gas no existieran, y luego delegar las operaciones costosas a una infraestructura verificable. Este cambio mental —de contratos inteligentes limitados a contratos inteligentes con computación infinita— remodelará lo que se construye on-chain.

Lo que depara el 2026: de la investigación a la producción

Múltiples tendencias están convergiendo para hacer del 2026 el punto de inflexión para la adopción de los coprocesadores ZK.

La aceleración de hardware está mejorando drásticamente el rendimiento de la generación de pruebas. Empresas como Cysic están construyendo ASICs especializados para pruebas de conocimiento cero, de manera similar a cómo la minería de Bitcoin evolucionó de CPUs a GPUs y luego a ASICs. Cuando la generación de pruebas se vuelve entre 10 y 100 veces más rápida y barata, las barreras económicas colapsan.

Las herramientas para desarrolladores están abstrayendo la complejidad. El desarrollo temprano de zkVM requería experiencia en diseño de circuitos; los frameworks modernos permiten a los desarrolladores escribir en Rust o Solidity y compilar a circuitos demostrables automáticamente. A medida que estas herramientas maduran, la experiencia del desarrollador se asemeja a la escritura de smart contracts estándar: la computación verificable se convierte en la norma, no en la excepción.

La adopción institucional está impulsando la demanda de infraestructura verificable. A medida que BlackRock tokeniza activos y los bancos tradicionales lanzan sistemas de liquidación de stablecoins, requieren computación off-chain verificable para el cumplimiento, la auditoría y los informes regulatorios. Los coprocesadores ZK proporcionan la infraestructura para que esto sea trustless.

La fragmentación cross-chain crea una urgencia por la verificación de estado unificada. Con cientos de Layer 2 fragmentando la liquidez y la experiencia del usuario, las aplicaciones necesitan formas de agregar el estado a través de las cadenas sin depender de intermediarios de puentes. Los coprocesadores proporcionan la única solución trustless.

Los proyectos que sobrevivan probablemente se consolidarán en torno a verticales específicas: Brevis para infraestructura multi-chain de propósito general, Lagrange para aplicaciones con uso intensivo de datos, Axiom para la optimización de consultas históricas. Al igual que con los proveedores de la nube, la mayoría de los desarrolladores no ejecutarán su propia infraestructura de pruebas: consumirán las APIs de los coprocesadores y pagarán por la verificación como servicio.

El panorama general: la computación infinita se encuentra con la seguridad blockchain

Los coprocesadores ZK resuelven una de las limitaciones más fundamentales de la blockchain: puedes tener seguridad trustless O computación compleja, pero no ambas. Al desacoplar la ejecución de la verificación, hacen que esta compensación sea obsoleta.

Esto desbloquea la próxima ola de aplicaciones blockchain, aquellas que no podrían existir bajo las antiguas restricciones. Protocolos DeFi con gestión de riesgos de grado financiero tradicional. Juegos con valores de producción AAA ejecutándose sobre infraestructura verificable. Agentes de IA operando de forma autónoma con pruebas criptográficas de su toma de decisiones. Aplicaciones cross-chain que se sienten como plataformas únicas y unificadas.

La infraestructura está aquí. Las pruebas son lo suficientemente rápidas. Las herramientas de desarrollo están madurando. Lo que queda es construir las aplicaciones que antes eran imposibles, y observar cómo una industria se da cuenta de que las limitaciones de computación de la blockchain nunca fueron permanentes, sino que solo esperaban la infraestructura adecuada para superarlas.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial en las blockchains donde se están construyendo aplicaciones de coprocesadores ZK, desde Ethereum y Arbitrum hasta Base, Optimism y más allá. Explore nuestro marketplace de APIs para acceder a la misma infraestructura de nodos confiable que impulsa la próxima generación de computación verificable.