Saltar al contenido principal

2 publicaciones etiquetados con "computación descentralizada"

Ver Todas las Etiquetas

JAM Chain: El cambio de paradigma de Polkadot hacia la computadora global descentralizada

· 55 min de lectura
Dora Noda
Software Engineer

La JAM (Join-Accumulate Machine) Chain de Polkadot representa la innovación arquitectónica de blockchain más significativa desde el lanzamiento de Ethereum, reimaginando fundamentalmente cómo opera la computación descentralizada. Introducida por el Dr. Gavin Wood a través del JAM Gray Paper en abril de 2024, JAM transforma Polkadot de una cadena de retransmisión específica para parachains en una "supercomputadora sin confianza mayormente coherente" de propósito general y sin permisos, capaz de una disponibilidad de datos 42 veces mayor (850 MB/s) y una capacidad teórica de más de 3.4 millones de TPS. El protocolo resuelve el persistente problema de particionamiento que afecta a los sistemas blockchain actuales al permitir la componibilidad síncrona dentro de límites de fragmentos dinámicos mientras mantiene la ejecución paralela en más de 350 núcleos. A diferencia de la estrategia de rollups centrada en L2 de Ethereum o el modelo de zona soberana de Cosmos, JAM construye la ejecución fragmentada con un estado coherente directamente en la capa de consenso, utilizando una novedosa Máquina Virtual de Polkadot (PVM) basada en RISC-V y una arquitectura sin transacciones donde toda la computación fluye a través de una tubería Refine→Accumulate. Con 43 equipos de implementación compitiendo por 10 millones de DOT en premios, múltiples clientes logrando el 100% de conformidad para agosto de 2025, y el despliegue en la red principal (mainnet) previsto para principios de 2026, JAM está posicionada para cumplir lo que la visión original de Ethereum 2.0 prometió: ejecución escalable nativa sin sacrificar la componibilidad ni la seguridad.

El modelo computacional: cómo los procesos JAM funcionan a escala

JAM introduce un paradigma computacional fundamentalmente nuevo llamado CoreJAM (Collect, Refine, Join, Accumulate), que divide la ejecución de blockchain en fases distintas optimizadas para la paralelización y la eficiencia. El nombre JAM deriva de las porciones en cadena —Join y Accumulate—, mientras que Collect y Refine ocurren fuera de la cadena. Esta arquitectura establece dos entornos de ejecución principales que trabajan en concierto: la ejecución en el núcleo para la computación paralela pesada y la ejecución en cadena para la integración de estados.

En la etapa Refine (ejecución en el núcleo), los elementos de trabajo se someten a un procesamiento paralelo sin estado a través de múltiples núcleos de validador, con cada núcleo manejando hasta 15 MB de datos de entrada por intervalo de 6 segundos y produciendo salidas comprimidas de un máximo de 90 KB, una notable relación de compresión de 166x. Esta etapa proporciona 6 segundos de tiempo de ejecución de PVM por núcleo, triplicando el límite de 2 segundos de las actuales Funciones de Validación de Parachain de Polkadot (PVF). La función Refine realiza el trabajo computacional pesado completamente fuera de la cadena, con solo búsquedas de preimagen como su operación con estado, lo que permite una paralelización masiva sin contención de estado.

Después del refinamiento, la etapa Accumulate (ejecución en cadena) integra los resultados del trabajo en el estado de la cadena a través de operaciones con estado limitadas a aproximadamente 10 milisegundos por salida. Esta función se ejecuta en todos los validadores y puede leer el almacenamiento de cualquier servicio, escribir en su propio almacén de clave-valor, transferir fondos entre servicios, crear nuevos servicios, actualizar código y solicitar la disponibilidad de preimagen. El marcado contraste en los presupuestos de ejecución —6 segundos fuera de la cadena frente a 10 milisegegundos en cadena— refleja la visión fundamental de JAM: al trasladar la computación costosa fuera de la cadena y paralelizarla, el sistema reserva un valioso tiempo en cadena solo para las transiciones de estado esenciales.

Los servicios en JAM definen un tercer punto de entrada llamado onTransfer, que maneja la comunicación asíncrona entre servicios. Este sistema de mensajería permite que los servicios interactúen sin bloquearse, con mensajes enviados sin valores de retorno inmediatos. El diseño anticipa futuras mejoras como la asignación de gas adicional a través de núcleos secundarios para interacciones complejas entre servicios.

Este modelo de ejecución dual logra lo que Wood describe como semicoherencia: los servicios programados para el mismo núcleo en el mismo bloque interactúan de forma síncrona (subconjunto coherente), mientras que los servicios en diferentes núcleos se comunican de forma asíncrona (incoherente en general). Los límites entre la ejecución coherente e incoherente permanecen fluidos y económicamente impulsados en lugar de ser impuestos por el protocolo, lo que permite que los servicios que se comunican con frecuencia se ubiquen en los mismos núcleos para un comportamiento síncrono mientras se mantiene la escalabilidad en todo el sistema. Esto representa un avance en la resolución del antagonismo tamaño-sincronía que ha limitado las arquitecturas blockchain anteriores.

Transformación arquitectónica de cadena de retransmisión a computación basada en servicios

JAM reimagina fundamentalmente la arquitectura de Polkadot, pasando de un diseño muy específico y centrado en parachains a un sustrato computacional minimalista y de propósito general. La actual Cadena de Retransmisión de Polkadot consagra las parachains directamente en el protocolo con un límite estricto de aproximadamente 50 ranuras, requiere acceso basado en subastas que cuesta millones en DOT, y ejecuta toda la lógica de las parachains a través de rutas de validación fijas. JAM reemplaza esto con servicios, entornos de ejecución encapsulados y sin permisos que cualquiera puede desplegar sin aprobación de gobernanza ni subastas, limitados solo por factores criptoeconómicos (depósitos de DOT).

El cambio de filosofía arquitectónica es profundo: de una cadena de retransmisión actualizable a un protocolo fijo con servicios actualizables. Mientras que Polkadot 1.0 mantenía una cadena de retransmisión altamente actualizable que acumulaba complejidad con el tiempo, JAM fija los parámetros del protocolo central (codificación de encabezados de bloque, esquemas de hash, protocolo de red QUIC, parámetros de tiempo) para permitir una optimización agresiva y simplificar múltiples implementaciones. La funcionalidad a nivel de aplicación, incluyendo el staking, la gobernanza y la asignación de tiempo de núcleo, reside en servicios que pueden actualizarse de forma independiente sin tocar el protocolo central. Esta arquitectura de cadena no actualizable reduce drásticamente la complejidad al tiempo que preserva la flexibilidad donde más importa: en la capa de aplicación.

Las parachains se convierten en un tipo de servicio entre muchos en el modelo de JAM. Toda la funcionalidad de las parachains de Polkadot 1.1 se consolidará en un único servicio "Parachains" o "CoreChains", garantizando una compatibilidad total con versiones anteriores con garantías codificadas. Las parachains existentes transicionan automáticamente para ejecutarse sobre JAM cuando la cadena de retransmisión se actualiza, sin requerir cambios de código. El modelo de servicio generaliza lo que las parachains podían hacer en patrones de ejecución arbitrarios: contratos inteligentes desplegados directamente en núcleos, marcos basados en actores como CorePlay, ZK-rollups, servicios de disponibilidad de datos y modelos de ejecución completamente novedosos aún no concebidos.

El modelo de gestión de estados también se transforma significativamente. El Polkadot actual utiliza raíces de estado posteriores en los encabezados de bloque; los bloques esperan a que la computación completa termine antes de la distribución. JAM emplea raíces de estado previas que se retrasan un bloque, lo que permite el procesamiento en tubería (pipelining): las computaciones ligeras (aproximadamente el 5% de la carga de trabajo) se ejecutan inmediatamente, el bloque se distribuye antes de que las tareas de acumulación pesadas se completen, y el siguiente bloque comienza a procesarse antes de que el bloque actual termine su ejecución. Esta elección arquitectónica significa que JAM utiliza el tiempo completo de 6 segundos del bloque para la computación, logrando de 3 a 3.5 segundos de tiempo de computación efectivo por bloque, frente a menos de 2 segundos en el Polkadot actual.

La transición de JAM de WebAssembly a la Máquina Virtual de Polkadot (PVM) basada en RISC-V representa otro cambio fundamental. RISC-V, con solo 47 instrucciones base, ofrece una determinismo superior, velocidades de ejecución excepcionales en hardware convencional, fácil transpilación a x86/x64/ARM, soporte oficial de la cadena de herramientas LLVM y manejo natural de continuaciones con pila en memoria. Críticamente, PVM proporciona "medición gratuita" en comparación con la sobrecarga de medición de WebAssembly, mientras que la arquitectura basada en registros (frente al diseño basado en pila de WASM) evita el problema NP-completo de asignación de registros. Esto permite continuaciones habilitadas para RISC-V que establecen nuevos estándares para la codificación escalable de múltiples núcleos, permitiendo que los programas se pausen y reanuden a través de los límites de los bloques, algo esencial para la arquitectura asíncrona y paralela de JAM.

Especificaciones técnicas: objetivos de rendimiento y requisitos de validador

JAM apunta a métricas de rendimiento extraordinarias que lo posicionan como un salto generacional en la capacidad computacional de blockchain. El sistema busca una disponibilidad de datos de 850 MB/s, una mejora de 42x sobre Polkadot vanilla antes de las mejoras de Asynchronous Backing y órdenes de magnitud más allá de los 1.3 MB/s de Ethereum. Esto se traduce en un rendimiento agregado de aproximadamente 2.3 Gbps en todos los núcleos, con cada núcleo procesando 5 MB de entrada por ranura de 6 segundos.

La capacidad de rendimiento de transacciones escala drásticamente: más de 3.4 millones de TPS como máximo teórico basado en el objetivo de disponibilidad de datos de 850 MB/s. Las pruebas de estrés en el mundo real validan estas proyecciones: Kusama logró 143,000 TPS con solo el 23% de capacidad de carga en agosto de 2025, mientras que la prueba de estrés "Spammening" de Polkadot alcanzó 623,000 TPS en 2024. Con las optimizaciones adicionales de JAM y el recuento de núcleos expandido (apuntando a 350 núcleos con escalado elástico), el umbral de más de 1 millón de TPS se vuelve alcanzable en producción.

La capacidad computacional se mide en 150 mil millones de gas por segundo cuando está completamente operativa, según las estimaciones del Gray Paper, lo que refleja la ejecución total de PVM en todos los núcleos. El mecanismo de consenso mantiene tiempos de bloque de 6 segundos con finalidad determinista a través de GRANDPA en aproximadamente 18 segundos (aproximadamente 3 bloques). SAFROLE, el algoritmo de producción de bloques basado en SNARK de JAM, proporciona una operación casi sin bifurcaciones a través de la selección anónima de validadores utilizando zkSNARKs y RingVRF, con tickets que sirven como entradas anónimas para la producción de bloques con dos épocas de antelación.

Los requisitos de hardware para los validadores siguen siendo accesibles para operadores profesionales, aunque demandan recursos significativos:

  • CPU: 8 núcleos físicos a 3.4 GHz mínimo (se prioriza el rendimiento de un solo hilo)
  • RAM: 128 GB mínimo
  • Almacenamiento: 2 TB NVMe SSD mínimo (priorizando la latencia sobre el rendimiento), con un crecimiento continuo estimado en 50 GB/mes
  • Red: Conexión simétrica de 500 Mbit/s mínimo (se prefiere 1 Gbit/s) para manejar un gran número de servicios y asegurar el control de congestión
  • Sistema Operativo: Basado en Linux (Kernel 5.16 o posterior)
  • Tiempo de actividad: 99%+ requerido para evitar penalizaciones por recorte (slashing)

El conjunto de validadores consta de 1,023 validadores, el mismo número que el Polkadot actual, todos recibiendo recompensas de bloque iguales independientemente del stake que los respalde. Esta distribución equitativa de recompensas crea incentivos económicos para que el stake se distribuya entre los validadores en lugar de concentrarse en unos pocos operadores grandes, promoviendo la descentralización. Los requisitos mínimos de stake son dinámicos; históricamente, entrar en el conjunto de validadores activos requería aproximadamente 1.75 millones de DOT de stake total (stake propio más nominaciones), aunque la intención de nominación mínima se sitúa en 250 DOT. El período de desvinculación de 28 días permanece sin cambios con respecto al Polkadot actual.

La capa de red de JAM transiciona al protocolo QUIC para conexiones directas punto a punto entre los más de 1,000 validadores, evitando los problemas de agotamiento de sockets de las pilas de red tradicionales. Dado que JAM es fundamentalmente sin transacciones (sin mempool ni gossip), el sistema emplea la difusión en cuadrícula (grid-diffusal) para la transmisión: los validadores se organizan en una cuadrícula lógica y los mensajes se propagan por fila y luego por columna, reduciendo drásticamente los requisitos de ancho de banda en comparación con los protocolos de gossip completos.

El entorno de pruebas JAM Toaster demuestra la escala de la infraestructura que soporta el desarrollo: 1,023 nodos con 12,276 núcleos y 16 TB de RAM ubicados en las instalaciones del Polkadot Palace de Lisboa, clasificándose entre las 500-1000 supercomputadoras globales más importantes. Esta infraestructura de pruebas a gran escala aborda las limitaciones históricas donde las pequeñas redes de prueba no podían simular dinámicas de red a gran escala y las redes de producción carecían de capacidades de monitoreo exhaustivas.

Modelo económico: tokenomics de DOT y precios basados en tiempo de núcleo

JAM mantiene a DOT como el único token nativo sin creación de nuevos tokens, preservando la continuidad con el modelo económico de Polkadot al tiempo que introduce cambios estructurales significativos. La arquitectura económica se centra en el despliegue de servicios sin permisos, donde cualquiera puede cargar y ejecutar código a cambio de tarifas proporcionales a los recursos utilizados. Los servicios no tienen límites predefinidos de código, datos o estado; la capacidad está determinada por factores criptoeconómicos, específicamente la cantidad de DOT depositada como garantía económica.

La tokenomía experimentó una gran transformación en 2025 con el Referéndum 1710, que implementó un límite de suministro de 2.1 mil millones de DOT y un calendario de inflación escalonada. Las emisiones anuales de tokens se reducirán a la mitad cada dos años a partir de marzo de 2026, creando un modelo de escasez similar al de Bitcoin. La inflación anual actual es del 7.56% (frente al 10% inicial), proyectándose un suministro total de aproximadamente 1.91 mil millones de DOT para 2040 frente a 3.4 mil millones bajo el modelo anterior. Esta presión deflacionaria tiene como objetivo apoyar la acumulación de valor a largo plazo mientras se mantienen recompensas suficientes para la seguridad de la red.

La estructura de tarifas transiciona de las subastas de parachains a la tarificación basada en el tiempo de núcleo (coretime), reemplazando el complejo mecanismo de subasta de ranuras de Polkadot 1.0 con opciones flexibles:

El tiempo de núcleo a granel (Bulk Coretime) proporciona suscripciones mensuales para un acceso consistente a los núcleos computacionales, lo que permite una presupuestación predecible para proyectos que requieren un rendimiento garantizado. El tiempo de núcleo bajo demanda (On-Demand Coretime) ofrece acceso de pago por uso para un uso esporádico, reduciendo drásticamente las barreras de entrada en comparación con las subastas de ranuras de parachain de millones de dólares. Este modelo de tiempo de núcleo ágil permite adquirir recursos computacionales por duraciones que van desde segundos hasta años, optimizando la eficiencia del capital.

JAM introduce un novedoso modelo de consumo de recursos mixto donde los paquetes de trabajo pueden combinar tareas computacionalmente intensivas con operaciones intensivas en datos. Al emparejar servicios con diversos requisitos de recursos —por ejemplo, verificación de pruebas de conocimiento cero (intensiva en computación) con disponibilidad de datos (intensiva en almacenamiento)— el sistema optimiza la utilización del hardware del validador y reduce los costos generales. Los incentivos económicos alinean naturalmente a los secuenciadores para agrupar elementos de trabajo relacionados y ubicar servicios que se comunican con frecuencia en los mismos núcleos.

La arquitectura sin transacciones elimina por completo las estructuras tradicionales de tarifas de transacción. En lugar de que los usuarios envíen transacciones a un mempool con tarifas de gas, todas las acciones pasan por la etapa Refine fuera de la cadena antes de que los resultados se integren en la cadena. Este modelo económico fundamentalmente diferente cobra por la adquisición de tiempo de núcleo y el procesamiento de paquetes de trabajo en lugar de gas por transacción, con tarifas determinadas por los recursos computacionales y de datos consumidos durante las etapas Refine y Accumulate.

La economía de los validadores continúa con el Nominated Proof-of-Stake (NPoS) de Polkadot, con recompensas de bloque iguales distribuidas entre todos los validadores activos por era, independientemente del tamaño del stake. Los validadores establecen sus propias tasas de comisión deducidas de las recompensas totales antes de la distribución a los nominadores. Las fuentes de ingresos incluyen recompensas de bloque (primarias), bonificaciones por puntos de era por participación activa, propinas de los usuarios (100% para el validador) y tarifas de comisión de los nominadores. Las estadísticas actuales de staking muestran una tasa de participación del 58% con 825.045 millones de DOT en stake distribuidos entre 600 validadores activos.

Los servicios asocian saldos de tokens directamente con el código y el estado, lo que permite ajustes del modelo económico que no son fácilmente alcanzables en cadenas puramente actualizables. Esta innovación permite a los servicios mantener y gestionar DOT, creando actores económicos que pueden pagar sus propias operaciones, implementar mecanismos tokenómicos novedosos o servir como custodios de fondos de usuarios, todo ello sin intermediarios de confianza.

El modelo de seguridad económica se basa en Validadores Económicos (ELV), un mecanismo de rollup cínico donde validadores seleccionados aleatoriamente reejecutan el trabajo para verificar la corrección. Este enfoque resulta aproximadamente 4,000 veces más rentable que las pruebas ZK para garantizar la corrección computacional, aprovechando el modelo de seguridad criptoeconómica probado de Polkadot. Cuando se disputan los resultados del trabajo, el mecanismo de juicio puede pausar la finalidad hasta por 1 hora mientras los validadores llegan a un consenso, manteniendo las garantías de seguridad incluso bajo condiciones adversas.

Estado de desarrollo: implementaciones, redes de prueba y hoja de ruta a la red principal

A octubre de 2025, el desarrollo de JAM ha alcanzado una masa crítica con 43 equipos de implementación activos en cinco categorías de idiomas compitiendo por el fondo de premios de 10 millones de DOT + 100,000 KSM (valorado entre $60 y $100 millones de USD). Esta diversidad de implementadores sin precedentes tiene como objetivo difundir la experiencia más allá de un solo equipo, garantizar la resiliencia del protocolo a través de la diversidad de clientes e identificar ambigüedades en las especificaciones a través de implementaciones independientes.

Múltiples implementaciones lograron el 100% de conformidad con JAM para agosto de 2025, incluyendo JAM DUNA (Go), JamZig (Zig), Jamzilla (Go), JavaJAM (Java), SpaceJam (Rust), Vinwolf (Rust), Jamixir (Elixir) y Boka (Swift). El Panel de Conformidad de JAM proporciona puntos de referencia de rendimiento en tiempo real, resultados de pruebas de fuzzing y comparaciones de implementaciones, lo que permite una evaluación transparente de la madurez de cada cliente. La implementación PolkaJAM de Parity en Rust actualmente lidera en métricas de rendimiento.

El JAM Gray Paper ha progresado a través de múltiples revisiones: la v0.7.0 se lanzó el 25 de junio de 2025 con pseudocódigo detallado para la ejecución de PVM y el Agregador de Planificación (Aggregating Scheduler), seguida de la v0.7.1 el 26 de julio de 2025 incorporando los comentarios de la comunidad. El Gray Paper emula el enfoque del Yellow Paper de Ethereum, proporcionando especificaciones matemáticas formales que permiten múltiples implementaciones independientes en lugar de depender de un único cliente de referencia.

La actividad de la red de prueba (testnet) se aceleró a lo largo de 2025 con el Evento JAM Experience en Lisboa (9-11 de mayo), que marcó una importante fiesta de lanzamiento público de la testnet a la que asistieron desarrolladores internacionales. La testnet de Rollup Mínimo Viable se lanzó en junio de 2025, permitiendo a los desarrolladores probar la funcionalidad básica de JAM en un entorno de red en vivo. Múltiples equipos de implementación ejecutan testnets privadas continuamente, y Parity lanzó el binario experimental PolkaJAM, lo que permite a los desarrolladores crear sus propias testnets de JAM para experimentar.

El Premio para Implementadores de JAM estructura las recompensas a través de cinco hitos por cada ruta de implementación (Nodo Validador, Nodo Validador No-PVM o Nodo Ligero):

Hito 1 (IMPORTER): 100,000 DOT + 1,000 KSM por pasar las pruebas de conformidad de transición de estado e importar bloques. Las presentaciones se abrieron en junio de 2025 con la Polkadot Fellowship revisando las propuestas. Hito 2 (AUTHORER): 100,000 DOT + 1,000 KSM adicionales por la conformidad completa, incluyendo la producción de bloques, la red y los componentes fuera de la cadena. Hito 3 (HALF-SPEED): 100,000 DOT + 1,000 KSM por lograr un rendimiento a nivel de Kusama, otorgando acceso a JAM Toaster para pruebas a gran escala. Hito 4 (FULL-SPEED): 100,000 DOT + 1,000 KSM por un rendimiento a nivel de la red principal de Polkadot con una auditoría de seguridad externa profesional gratuita. Hito 5 (SECURE): 100,000 DOT + 1,000 KSM finales por pasar auditorías de seguridad completas sin vulnerabilidades significativas.

La diversidad de lenguajes abarca lenguajes empresariales tradicionales (Java, Kotlin, C#, Go en el Conjunto A), lenguajes de rendimiento nativo (C, C++, Rust, Swift, Zig en el Conjunto B), lenguajes de scripting concisos (Python, JavaScript, TypeScript en el Conjunto C) y lenguajes centrados en la corrección (OCaml, Elixir, Julia, Haskell en el Conjunto D). El Conjunto Z ofrece un máximo de 5,000 KSM para implementaciones en lenguajes esotéricos como Brainfuck o Whitespace, demostrando el espíritu lúdico de la comunidad al tiempo que prueba la claridad de las especificaciones.

La línea de tiempo para el despliegue en la red principal sigue un ambicioso calendario:

  • Finales de 2025: Revisiones finales del Gray Paper (v0.8.0, v0.9.0, acercándose a v1.0), continuas presentaciones y revisiones de hitos, participación ampliada en la testnet.
  • Primer trimestre de 2026: Actualización de la red principal de JAM prevista en la red de Polkadot tras la aprobación de la gobernanza a través de un referéndum de OpenGov.
  • 2026: Despliegue de CoreChain Fase 1, testnet pública oficial de JAM, transición completa de la red de Polkadot a la arquitectura JAM.

La estrategia de despliegue implica una única actualización integral en lugar de cambios incrementales iterativos, lo que permite una restricción precisa de las acciones posteriores a la actualización y minimiza la sobrecarga para los desarrolladores debido a cambios constantes que rompen la compatibilidad. Este enfoque consolida todos los cambios disruptivos en una sola transición, evitando la acumulación de complejidad que afectó la evolución de Polkadot 1.0. Sin embargo, la aprobación de la gobernanza sigue siendo obligatoria: JAM requiere la aprobación de la gobernanza descentralizada en cadena de Polkadot con la votación de los poseedores de tokens DOT. El precedente de la aprobación casi unánime del Referéndum 682 en mayo de 2024 (con el respaldo de más de 31 millones de DOT) sugiere un fuerte apoyo de la comunidad, aunque el despliegue final en la red principal requiere una aprobación de gobernanza separada.

Ya están surgiendo implementaciones en el mundo real. Acala Network anunció JAMVerse en agosto de 2025, construyendo la primera cadena dApp nativa de JAM con un cliente JAM de clase B basado en Swift (Boka). Su hoja de ruta incluye la migración de los servicios DeFi centrales (Swap, Staking, LDOT) a JAM para operaciones con latencia sub-bloque, el desarrollo de un adaptador JAM-XCM para preservar la interoperabilidad con las parachains de Substrate y la demostración de préstamos flash entre cadenas habilitados por la componibilidad síncrona. Quartz de Unique Network está en transición a entornos de prueba internos para la arquitectura JAM, con la planificación completa para octubre de 2025.

Impacto en el ecosistema: compatibilidad con versiones anteriores y estrategias de migración

El diseño de JAM prioriza la compatibilidad total con versiones anteriores con las parachains existentes de Polkadot, asegurando que la transición mejore en lugar de interrumpir el ecosistema. La documentación oficial confirma que "parte de la propuesta incluirá herramientas y garantías de compatibilidad codificadas", y la Web3 Foundation asegura que "las parachains seguirán siendo ciudadanos de primera clase incluso después de JAM". Cuando JAM se lance, la cadena de retransmisión se actualizará y las parachains se convertirán automáticamente en servicios que se ejecutarán sobre JAM sin requerir ningún cambio de código.

El Servicio de Parachains (alternativamente llamado CoreChains o ChainService) consolida toda la funcionalidad de las parachains de Polkadot 1.1 en un único servicio JAM. Las parachains existentes basadas en Substrate continúan operando a través de esta capa de compatibilidad con un comportamiento funcionalmente inalterado: "La funcionalidad de cualquiera de las parachains que actualmente se ejecutan en Polkadot no se verá afectada". Desde la perspectiva de los equipos de parachains, "la pila tecnológica no parece muy diferente. Seguirán siendo validadas por validadores" con flujos de trabajo de desarrollo similares.

Tres rutas de migración permiten a los equipos adoptar las capacidades de JAM a su propio ritmo:

La Opción A: Sin Migración permite a los equipos de parachains seguir operando exactamente como antes con cero esfuerzo. El servicio de parachains se encarga de todas las preocupaciones de compatibilidad, manteniendo las características de rendimiento actuales y los flujos de trabajo de desarrollo. Esta ruta predeterminada es adecuada para equipos satisfechos con las capacidades existentes o que prefieren posponer las características específicas de JAM hasta que la tecnología madure.

La Opción B: Migración Parcial permite enfoques híbridos donde los equipos continúan operando como una parachain tradicional mientras despliegan funcionalidades específicas como servicios nativos de JAM. Por ejemplo, una parachain DeFi podría continuar sus operaciones de cadena principal sin cambios mientras despliega un servicio ZK-rollup para características de privacidad o un servicio de oráculo para feeds de precios directamente en los núcleos de JAM. Esta transición gradual permite probar nuevas capacidades sin un compromiso total, manteniendo la compatibilidad con versiones anteriores mientras se accede a funciones avanzadas de forma selectiva.

La Opción C: Migración Completa implica la reconstrucción utilizando el modelo de servicio de JAM con puntos de entrada Refine, Accumulate y onTransfer distintos. Esta ruta proporciona la máxima flexibilidad: despliegue sin permisos, componibilidad síncrona a través de Accords, marcos basados en actores de CorePlay y acceso directo a los novedosos modelos de ejecución de JAM. JAMVerse de Acala ejemplifica este enfoque: construir una implementación completa nativa de JAM mientras se mantiene la operación de la parachain heredada durante la transición. La migración completa requiere un esfuerzo de desarrollo significativo, pero desbloquea todo el potencial de JAM.

La infraestructura de soporte a la migración incluye la herramienta de migración Omicode mencionada en la documentación de Acala como habilitadora de una "migración fluida a JAM sin necesidad de modificar la lógica de tiempo de ejecución", aparentemente una capa de compatibilidad para las parachains existentes de Substrate. El SDK de Polkadot sigue siendo compatible con JAM, aunque las Funciones de Validación de Parachain (PVF) se redirigen de WebAssembly a PVM. Dado que PVM representa una modificación menor de RISC-V (que ya es un objetivo oficial de LLVM), las bases de código existentes compiladas a WASM generalmente pueden recompilarse a PVM con cambios mínimos.

La transición de WASM a PVM ofrece varios beneficios: la medición gratuita elimina la sobrecarga de gas durante la ejecución, la arquitectura basada en registros evita el problema NP-completo de asignación de registros inherente al diseño basado en pila de WASM, el soporte natural de continuaciones permite que los programas se pausen y reanuden a través de los límites de los bloques, y las velocidades de ejecución excepcionales en hardware convencional proporcionan mejoras de rendimiento sin cambios de infraestructura. Los pallets FRAME de Substrate siguen funcionando dentro de los servicios de parachain, aunque el sistema medido de JAM a menudo obvia los requisitos frecuentes de benchmarking que cargaban el desarrollo de Substrate.

La evolución del formato de mensajes entre consensos (XCM) garantiza la interoperabilidad durante la transición. El XCMP completo (Cross-Chain Message Passing) se vuelve obligatorio en JAM; mientras que el HRMP actual (Horizontal Relay-routed Message Passing) almacena todos los datos de los mensajes en la cadena de retransmisión con límites de carga útil de 4 KB, el XCMP de JAM solo coloca los encabezados de los mensajes en la cadena con transmisión de datos fuera de la cadena ilimitada. Este requisito arquitectónico se deriva de los estrictos límites de transmisión de datos entre las etapas Refine y Accumulate, lo que permite cargas de datos realistas sin cuellos de botella en la cadena de retransmisión.

Los adaptadores JAM-XCM mantienen la interoperabilidad entre los servicios JAM y las parachains de Substrate durante el período de transición. Las mejoras de XCM v5 que se lanzarán en 2025 incluyen transacciones de múltiples saltos, pagos de tarifas multicadena, menos firmas requeridas y una mejor prevención de errores, todo diseñado para funcionar sin problemas durante la transición de Polkadot a JAM. Los Accords introducen capacidades XCM síncronas que permiten interacciones con mínima confianza, como la teletransportación directa de tokens entre cadenas sin intermediarios basados en reservas.

Los mecanismos de gobernanza para el staking, la tesorería y las actualizaciones de protocolo migran a los servicios en lugar de consagrarse en el protocolo central. Esta separación de preocupaciones simplifica la propia cadena JAM al tiempo que preserva toda la funcionalidad necesaria en el código de servicio actualizable. Las funciones a nivel de aplicación, incluida la distribución de recompensas de staking, los mercados de tiempo de núcleo y la votación de gobernanza, residen en servicios que pueden evolucionar de forma independiente a través de sus propios mecanismos de actualización sin requerir cambios a nivel de protocolo.

La transición de validador sigue siendo sencilla: los operadores deberán ejecutar clientes compatibles con JAM en lugar de los clientes actuales de Polkadot, pero las responsabilidades del validador de producir bloques, validar transacciones (ahora paquetes de trabajo) y mantener el consenso continúan sin cambios. El cambio de BABE+GRANDPA a SAFROLE+GRANDPA para el consenso afecta principalmente a los aspectos internos de la implementación del cliente en lugar de a los procedimientos operativos. Los validadores que mantengan un tiempo de actividad superior al 99%, respondan a las solicitudes de validación con prontitud y participen en el consenso seguirán recibiendo recompensas iguales por era, como en el Polkadot actual.

Experiencia del desarrollador: de contratos inteligentes a servicios y más allá

JAM transforma fundamentalmente la experiencia del desarrollador al eliminar las barreras de entrada y expandir las opciones de capacidad. Donde Polkadot 1.0 obligaba a los equipos a elegir entre contratos inteligentes (capacidad limitada, fácil despliegue) o parachains (capacidad completa, acceso basado en subastas), JAM proporciona un entorno flexible y rico para ambos, además de modelos de ejecución novedosos.

El modelo de despliegue de servicios sin permisos se asemeja al despliegue de contratos inteligentes en Ethereum: los desarrolladores pueden desplegar código como un servicio sin aprobación de gobernanza ni subastas de ranuras, pagando solo por los recursos utilizados a través de la adquisición de tiempo de núcleo. Esto reduce drásticamente las barreras financieras: sin ofertas de subasta multimillonarias, sin compromisos de ranura de dos años, sin complejas mecánicas de crowdloan. Los servicios escalan económicamente a través de depósitos de DOT que limitan criptoeconómicamente el consumo de recursos, en lugar de a través de barreras políticas o financieras.

Los contratos inteligentes ink! continúan prosperando en el ecosistema de JAM con un potencial despliegue directo en los núcleos de JAM a través de servicios dedicados, eliminando la necesidad de un alojamiento intermedio de parachain. Las herramientas siguen siendo maduras: cargo-contract para la compilación, ink! playground para la experimentación, rustfmt y rust-analyzer para el desarrollo, el explorador Chainlens para la verificación de contratos y marcos de pruebas de integración. La ruta de graduación desde la prueba de concepto hasta la producción sigue siendo clara: comenzar con contratos ink! para una iteración rápida, validar la adecuación producto-mercado y luego migrar a servicios JAM o parachains cuando los requisitos de rendimiento lo exijan, reutilizando el código Rust, las pruebas y los componentes de frontend en todo el proceso.

Tres puntos de entrada de servicio definen el modelo de programación de JAM, lo que requiere que los desarrolladores piensen de manera diferente sobre la computación:

La función Refine maneja la computación sin estado que transforma las entradas de rollup en salidas. Acepta hasta 15 MB de elementos de trabajo por ranura de 6 segundos, se ejecuta durante hasta 6 segundos de gas PVM y produce resultados comprimidos de un máximo de 90 KB. Refine se ejecuta fuera de la cadena en paralelo a través de subconjuntos de validadores, con solo búsquedas de preimagen disponibles para el acceso a datos. Esta función realiza el trabajo computacional pesado (procesamiento de transacciones, verificación de pruebas, transformación de datos) completamente aislado del estado global.

La función Accumulate integra las salidas de Refine en el estado del servicio a través de operaciones con estado limitadas a aproximadamente 10 milisegundos por salida. Puede leer el almacenamiento de cualquier servicio (lo que permite consultas entre servicios), escribir en su propio almacén de clave-valor, transferir fondos entre servicios, crear nuevos servicios, actualizar su propio código y solicitar la disponibilidad de preimagen. Accumulate se ejecuta de forma síncrona en todos los validadores, lo que lo hace costoso pero seguro por defecto. La asimetría —6 segundos para Refine frente a 10 milisegundos para Accumulate— impone disciplina arquitectónica: empujar la computación fuera de la cadena, mantener las actualizaciones de estado mínimas.

La función onTransfer maneja la comunicación entre servicios a través de mensajería asíncrona. Los servicios pueden enviar mensajes sin esperar respuestas, lo que permite un acoplamiento flexible al tiempo que evita bloqueos. Las futuras mejoras pueden permitir la asignación de gas adicional para interacciones complejas entre servicios o el manejo de patrones síncronos a través de Accords.

CorePlay representa un marco experimental basado en actores que muestra las capacidades únicas de JAM. Los actores desplegados directamente en los núcleos pueden usar patrones de programación síncronos normales, código de estilo fn main() estándar con sintaxis async/await. Cuando los actores en el mismo núcleo se llaman entre sí, la ejecución procede de forma síncrona. Al llamar a actores en diferentes núcleos, las continuaciones de PVM pausan automáticamente la ejecución, serializan el estado y se reanudan en un bloque posterior cuando llegan los resultados. Esta abstracción hace que la ejecución asíncrona de múltiples bloques parezca síncrona para los desarrolladores, simplificando drásticamente la lógica de las aplicaciones distribuidas.

Las mejoras en las herramientas para desarrolladores incluyen un despliegue más sencillo a través de la creación de servicios sin permisos, requisitos de benchmarking reducidos mediante la ejecución PVM medida de JAM, precios de tiempo de núcleo transparentes y predecibles (evitando la volatilidad de tarifas al estilo Ethereum) y acceso a JAM Toaster para implementadores de Hito 3+ que proporciona una simulación de red completa de 1,023 nodos para pruebas de rendimiento realistas. El soporte para múltiples lenguajes —equipos que trabajan en Rust, Go, Swift, Zig, Elixir, OCaml y más— demuestra la claridad de las especificaciones y permite a los desarrolladores elegir cadenas de herramientas familiares.

La componibilidad síncrona transforma lo que es posible en aplicaciones multicadena. Las parachains actuales de Polkadot se comunican de forma asíncrona a través de XCM, lo que requiere que las aplicaciones manejen respuestas retrasadas, tiempos de espera y escenarios de reversión. Los Accords de JAM permiten contratos inteligentes de múltiples instancias que gobiernan los protocolos de interacción entre servicios con garantías de ejecución síncrona. Por ejemplo, la hoja de ruta de Acala demuestra "iniciar un préstamo flash en Ethereum y ejecutar arbitraje en múltiples cadenas a través de una única llamada sincronizada", atomicidad previamente imposible en ecosistemas blockchain fragmentados.

El cambio de los pallets de Substrate a los servicios JAM reduce la fricción de gobernanza: los pallets de Substrate requieren la aprobación de la gobernanza en cadena para su despliegue y actualizaciones, mientras que los servicios JAM se despliegan sin permisos como los contratos inteligentes. Los desarrolladores conservan la compatibilidad con el SDK de Substrate y pueden seguir utilizando FRAME para los servicios de parachain, pero los servicios nativos de JAM acceden a modelos de desarrollo simplificados sin la sobrecarga de coordinación de actualización de pallets.

La documentación y los recursos educativos se expandieron significativamente a lo largo de 2025 con el JAM 2025 World Tour, que llegó a 9 ciudades en 2 continentes y atrajo a más de 1,300 desarrolladores. La documentación técnica incluye el completo Gray Paper, las secciones de JAM en la Wiki de Polkadot, guías oficiales para desarrolladores y tutoriales creados por la comunidad. El programa Decentralized Futures de la Web3 Foundation financia iniciativas de educación sobre JAM, mientras que el Premio para Implementadores crea incentivos económicos para producir documentación y herramientas para desarrolladores de alta calidad.

Visión estratégica: resolución del trilema de blockchain mediante innovación arquitectónica

La visión de Gavin Wood para JAM aborda lo que él identifica como la limitación fundamental de blockchain: el antagonismo tamaño-sincronía, donde los sistemas deben elegir entre escala y coherencia. Las cadenas monolíticas como Bitcoin y Ethereum L1 logran alta sincronía y componibilidad, pero no pueden escalar más allá de los límites computacionales de un solo nodo. Los sistemas fragmentados como los L2 de Ethereum, las parachains de Polkadot y las zonas de Cosmos logran escala a través del particionamiento, pero sacrifican la coherencia, forzando a las aplicaciones a silos aislados con solo comunicación asíncrona entre fragmentos.

JAM intenta trascender esta falsa dicotomía a través de la coherencia parcial, un sistema que "garantiza la coherencia durante períodos críticos" mientras mantiene la escalabilidad a través de la paralelización. Los servicios programados para el mismo núcleo en el mismo bloque interactúan de forma síncrona, creando subconjuntos coherentes. Los servicios en diferentes núcleos se comunican de forma asíncrona, lo que permite la ejecución paralela. Críticamente, los límites de los fragmentos permanecen fluidos y económicamente impulsados en lugar de ser impuestos por el protocolo. Los secuenciadores tienen incentivos para ubicar servicios que se comunican con frecuencia, y los desarrolladores pueden optimizar la interacción síncrona cuando sea necesario sin la sincronía global del sistema.

El objetivo estratégico se centra en crear una "supercomputadora sin confianza mayormente coherente" que combine tres propiedades históricamente incompatibles:

Un entorno de contratos inteligentes sin permisos similar a Ethereum permite a cualquiera desplegar código sin aprobación de autoridad ni barreras económicas. Los servicios se crean y actualizan sin votos de gobernanza, victorias en subastas o compromisos de ranura. Esta apertura impulsa la innovación al eliminar las barreras institucionales, permitiendo la experimentación rápida y fomentando un mercado competitivo de servicios en lugar de recursos asignados políticamente.

La computación segura de banda lateral paralela sobre una red de nodos escalable pionera de Polkadot proporciona seguridad compartida en todos los servicios a través del conjunto completo de 1,023 validadores. A diferencia de las zonas de Cosmos con seguridad independiente o los L2 de Ethereum con diversas suposiciones de confianza, cada servicio JAM hereda garantías de seguridad idénticas desde el primer día. La ejecución paralela en los núcleos permite el escalado computacional sin fragmentar la seguridad; añadir servicios no diluye la seguridad, sino que aumenta el rendimiento total del sistema.

La componibilidad síncrona dentro de límites de ejecución coherentes desbloquea los efectos de red. Los protocolos DeFi pueden componerse atómicamente entre servicios para préstamos flash, arbitraje y liquidaciones. Los mercados de NFT pueden agrupar atómicamente activos de múltiples cadenas. Las aplicaciones de juegos pueden interactuar sincrónicamente con primitivas DeFi para economías dentro del juego. Esta componibilidad, históricamente limitada a cadenas monolíticas, está disponible en un entorno escalado y paralelo.

El posicionamiento a largo plazo de Wood para JAM se extiende más allá de blockchain a la computación general. El lema "computadora global descentralizada" hace eco deliberadamente de las primeras descripciones de Ethereum, pero con fundamentos arquitectónicos que respaldan la metáfora a escala. Donde la "computadora mundial" de Ethereum alcanzó rápidamente los límites de escalabilidad, lo que requirió el pragmatismo de L2, JAM construye la escalabilidad computacional en su base a través del paradigma Refine-Accumulate y el soporte de continuaciones de PVM.

La evolución de Polkadot 1.0 a JAM refleja una filosofía de "menos opinión", pasando de lo específico del dominio a lo de propósito general, de parachains consagradas a servicios arbitrarios, de la complejidad de protocolo actualizable a la simplicidad fija con aplicaciones actualizables. Este minimalismo arquitectónico permite oportunidades de optimización imposibles en sistemas en constante evolución: los parámetros fijos permiten una optimización agresiva de la topología de red, la temporización conocida permite algoritmos de programación precisos, las especificaciones inmutables permiten la aceleración de hardware sin riesgo de obsolescencia.

Cinco factores impulsores motivan el diseño de JAM:

La resiliencia a través de la descentralización requiere más de 1,000 operadores de validadores independientes que mantengan la seguridad en todos los servicios. El diseño de JAM preserva el NPoS pionero de Polkadot con recompensas iguales para los validadores, evitando la concentración de stake mientras mantiene una robusta tolerancia a fallos bizantinos.

La generalidad que permite la computación arbitraria se expande más allá de los casos de uso específicos de blockchain. La PVM acepta cualquier código RISC-V, admitiendo lenguajes desde Rust y C++ hasta implementaciones más exóticas. Los servicios pueden implementar blockchains, plataformas de contratos inteligentes, ZK-rollups, capas de disponibilidad de datos, oráculos, redes de almacenamiento o patrones computacionales completamente novedosos.

El rendimiento que logra una "escalabilidad más o menos indefinida" proviene de la paralelización horizontal: agregar núcleos escala el rendimiento sin límites arquitectónicos. El objetivo de 850 MB/s representa la capacidad de lanzamiento; el escalado elástico y los mercados económicos de tiempo de núcleo permiten aumentar la capacidad a medida que aumenta la demanda sin cambios de protocolo.

La coherencia que proporciona interacción síncrona cuando es necesario resuelve el problema de componibilidad que afecta a los sistemas fragmentados. Los Accords permiten la aplicación de protocolos con mínima confianza entre servicios, transferencias de tokens entre cadenas síncronas y operaciones atómicas multiservicio previamente imposibles en ecosistemas fragmentados.

La accesibilidad que reduce las barreras democratiza la infraestructura. Reemplazar las subastas de parachains de millones de dólares con tiempo de núcleo de pago por uso, el despliegue de servicios sin permisos y la asignación flexible de recursos permite que proyectos de todas las escalas, desde desarrolladores individuales hasta equipos empresariales, accedan a una infraestructura de clase mundial.

Panorama competitivo: JAM frente a enfoques alternativos de Capa 0 y Capa 1

El posicionamiento de JAM frente a la hoja de ruta de Ethereum revela filosofías de escalado fundamentalmente diferentes. Ethereum persigue una modularidad centrada en L2, donde la L1 proporciona disponibilidad de datos y liquidación, mientras que la ejecución migra a rollups optimistas y ZK como Arbitrum, Optimism, Base y zkSync. Proto-danksharding (EIP-4844) añadió transacciones de blob que proporcionan disponibilidad de datos temporal, con un danksharding completo planeado para aumentar la capacidad 100 veces. La Separación Proponente-Constructor (PBS) y el rediseño de la capa de consenso de Beam Chain anunciado continúan optimizando la L1 para su papel cada vez más reducido.

Esta estrategia crea un particionamiento persistente: los L2 siguen siendo ecosistemas aislados con liquidez fragmentada, suposiciones de confianza variadas, períodos de retiro de 7 días para los rollups optimistas, riesgos de centralización del secuenciador y volatilidad de tarifas durante la congestión de la L1 que se propaga a todos los L2. La componibilidad funciona sin problemas dentro de cada L2, pero las interacciones entre L2 vuelven a la mensajería asíncrona con riesgos de puente. La comunidad de Ethereum adoptó el pragmatismo de L2 después de que la visión original de fragmentación de Ethereum 2.0 resultara demasiado compleja, pero este pragmatismo acepta limitaciones fundamentales como compensaciones inherentes.

JAM persigue lo que Ethereum 2.0 prometió originalmente: ejecución fragmentada nativa con estado coherente integrado en la capa de consenso. Donde Ethereum movió la ejecución fuera de la cadena a los L2, JAM construye la ejecución paralela en el consenso de L1 a través del modelo Refine-Accumulate. Donde Ethereum aceptó ecosistemas L2 fragmentados, JAM proporciona seguridad unificada y componibilidad a nivel de protocolo a través de servicios y Accords. La apuesta arquitectónica difiere fundamentalmente: Ethereum apuesta por la innovación especializada de L2, JAM apuesta por la escalabilidad generalizada de L1.

Los objetivos de rendimiento ilustran la ambición: Ethereum procesa aproximadamente 15 transacciones por segundo en L1 con 1.3 MB por bloque de disponibilidad de datos, mientras que los L2 manejan colectivamente miles de TPS con suposiciones de seguridad variadas. JAM apunta a 850 MB/s de disponibilidad de datos (aproximadamente 650 veces Ethereum L1) y más de 3.4 millones de TPS de capacidad teórica con seguridad unificada. El modelo computacional también diverge: la ejecución secuencial EVM de Ethereum frente al procesamiento paralelo de 350 núcleos de JAM representa enfoques fundamentalmente diferentes para el problema de la escalabilidad.

Cosmos con el protocolo Inter-Blockchain Communication (IBC) representa una visión alternativa de Capa 0 que prioriza la soberanía sobre la seguridad compartida. Las zonas de Cosmos son blockchains soberanas independientes con sus propios conjuntos de validadores, gobernanza y modelos de seguridad. IBC permite la comunicación sin confianza a través de la verificación de clientes ligeros: las cadenas verifican de forma independiente el estado de la contraparte sin depender de validadores compartidos o pools de seguridad.

Esta filosofía de "la soberanía primero" otorga a cada zona autonomía completa: mecanismos de consenso personalizados, modelos económicos especializados y decisiones de gobernanza independientes sin sobrecarga de coordinación. Sin embargo, la soberanía conlleva costos: las nuevas zonas deben arrancar conjuntos de validadores y seguridad de forma independiente, enfrentan seguridad fragmentada (un ataque a una zona no compromete a otras, pero también significa niveles de seguridad variados entre zonas) y experimentan una comunicación verdaderamente asíncrona sin opciones de componibilidad síncrona.

JAM adopta el enfoque opuesto: la seguridad primero con validación compartida. Los 1,023 validadores aseguran cada servicio desde el lanzamiento, eliminando los desafíos de arranque y proporcionando garantías de seguridad uniformes. Los servicios sacrifican la soberanía (operan dentro del modelo de ejecución de JAM y dependen de un conjunto de validadores compartido), pero obtienen seguridad inmediata, componibilidad a nivel de protocolo y menor sobrecarga operativa. La diferencia filosófica es profunda: Cosmos optimiza la independencia soberana, JAM optimiza la integración coherente.

Las subredes de Avalanche proporcionan otra arquitectura comparativa donde las subredes son blockchains soberanas de Capa 1 que los validadores eligen validar. Los validadores de la red principal (que requieren 2,000 AVAX en stake) pueden validar adicionalmente cualquier subred que elijan, lo que permite conjuntos de validadores personalizados por subred. Este modelo de seguridad horizontal (más subredes = más conjuntos de validadores) contrasta con el modelo de seguridad vertical de JAM (todos los servicios comparten el conjunto completo de validadores).

La arquitectura de subredes permite la optimización específica de la aplicación: las subredes de juegos pueden tener un alto rendimiento y baja finalidad, las subredes de DeFi pueden priorizar la seguridad y la descentralización, las subredes empresariales pueden implementar validadores con permisos. El consenso Snowman de Avalanche proporciona una finalidad de menos de un segundo dentro de las subredes. Sin embargo, las subredes permanecen en gran medida aisladas: Avalanche Warp Messaging (AWM) proporciona comunicación básica entre subredes, pero sin la componibilidad a nivel de protocolo o la ejecución síncrona que permiten los Accords de JAM.

El posicionamiento de rendimiento muestra a Avalanche enfatizando la finalidad de menos de un segundo (aproximadamente 1 segundo frente a los 18 segundos de JAM), pero con una seguridad más fragmentada entre subredes en lugar de los 1,023 validadores unificados por servicio de JAM. La arquitectura de estado también difiere fundamentalmente: las subredes de Avalanche mantienen máquinas de estado completamente aisladas, mientras que los servicios JAM comparten una capa de acumulación que permite lecturas entre servicios e interacciones síncronas cuando se programan en el mismo núcleo.

Los protocolos de interoperabilidad externos como LayerZero, Wormhole, Chainlink CCIP y Axelar sirven para propósitos diferentes al XCMP nativo de JAM. Estos protocolos conectan ecosistemas blockchain completamente dispares (Ethereum a Solana a Bitcoin a Cosmos) confiando en validadores externos, oráculos o redes de retransmisión para la seguridad. LayerZero utiliza un modelo de Oráculo + Retransmisor que asegura más de $6 mil millones en valor total bloqueado en más de 50 cadenas. Wormhole emplea 19 Guardianes que validan más de mil millones de mensajes con una valoración totalmente diluida de $10.7 mil millones.

El XCMP de JAM opera en una capa diferente: comunicación intra-ecosistema con validadores de protocolo nativos en lugar de suposiciones de seguridad externas. Los servicios en JAM no necesitan puentes externos para interactuar; comparten el mismo conjunto de validadores, mecanismo de consenso y garantías de seguridad. Esto permite interacciones sin confianza imposibles con puentes externos: llamadas síncronas, operaciones atómicas multiservicio, entrega garantizada de mensajes y finalidad a nivel de protocolo.

El posicionamiento estratégico sugiere coexistencia en lugar de competencia: JAM utiliza XCMP para la comunicación interna mientras que potencialmente integra LayerZero, Wormhole o protocolos similares para la conectividad de cadenas externas. Los servicios JAM podrían envolver protocolos externos para conectar con Ethereum, Solana, Bitcoin o Cosmos, proporcionando lo mejor de ambos mundos en conectividad: operaciones internas sin confianza con puentes externos pragmáticos.

Fundamentos de investigación: rigor académico y contribuciones novedosas a la informática

El JAM Gray Paper establece la base académica del protocolo, emulando el Yellow Paper de Ethereum al proporcionar especificaciones matemáticas formales que permiten múltiples implementaciones independientes. Lanzado en abril de 2024 con la versión 0.1, el documento ha progresado a través de un refinamiento continuo (la v0.7.0 en junio de 2025 añadió pseudocódigo PVM detallado, la v0.7.1 en julio incorporó los comentarios de la comunidad), acercándose a la v1.0 esperada para principios de 2026. Este desarrollo iterativo de especificaciones con el escrutinio de la comunidad es paralelo a la revisión académica por pares, mejorando la claridad y detectando ambigüedades.

El resumen del Gray Paper cristaliza la contribución teórica de JAM: "Presentamos una definición completa y formal de Jam, un protocolo que combina elementos tanto de Polkadot como de Ethereum. En un único modelo coherente, Jam proporciona un entorno de objetos singleton global sin permisos —muy parecido al entorno de contratos inteligentes pionero de Ethereum—, emparejado con una computación segura de banda lateral paralela sobre una red de nodos escalable, una propuesta pionera de Polkadot." Esta síntesis de propiedades aparentemente incompatibles —la componibilidad sin permisos de Ethereum con la seguridad compartida paralela de Polkadot— representa el desafío teórico central que aborda JAM.

La selección de RISC-V para los fundamentos de PVM refleja un riguroso análisis de la arquitectura de computadoras. RISC-V surgió de la investigación de la UC Berkeley como una arquitectura de conjunto de instrucciones de código abierto que prioriza la simplicidad y la extensibilidad. Con solo 47 instrucciones base en comparación con cientos en x86 o ARM, RISC-V minimiza la complejidad de la implementación mientras mantiene la completitud computacional. La arquitectura basada en registros evita el problema NP-completo de asignación de registros inherente a las máquinas virtuales basadas en pila como WebAssembly, lo que permite una compilación más rápida y un rendimiento más predecible.

La PVM de JAM realiza modificaciones mínimas al RISC-V estándar, principalmente añadiendo gestión de memoria determinista y medición de gas, al tiempo que preserva la compatibilidad con las cadenas de herramientas RISC-V existentes. Este conservadurismo de diseño permite aprovechar décadas de investigación en arquitectura de computadoras y compiladores de grado de producción (LLVM) en lugar de construir una infraestructura de compiladores personalizada. Los lenguajes que compilan a RISC-V —Rust, C, C++, Go y muchos otros— se vuelven automáticamente compatibles con JAM sin modificaciones de compilador específicas de blockchain.

El soporte de continuaciones en PVM representa una contribución teórica significativa. Las continuaciones —la capacidad de pausar la ejecución, serializar el estado y reanudar más tarde— permiten la computación asíncrona de múltiples bloques sin una compleja gestión manual del estado. Las VM de blockchain tradicionales carecen de soporte de continuaciones, lo que obliga a los desarrolladores a dividir manualmente las computaciones, persistir el estado intermedio y reconstruir el contexto a través de las transacciones. El diseño de pila en memoria de PVM y la ejecución determinista permiten un soporte de continuaciones de primera clase, simplificando drásticamente las computaciones de larga duración o entre bloques.

El dualismo Refine-Accumulate se mapea conceptualmente al modelo de programación MapReduce, pionero de Google para la computación distribuida. Refine opera como la fase Map: una transformación vergonzosamente paralela y sin estado de entradas a salidas a través de trabajadores distribuidos (núcleos de validadores). Accumulate opera como la fase Reduce: integración secuencial de resultados transformados en un estado unificado. Este patrón de la informática, probado eficaz a escala masiva en sistemas distribuidos tradicionales, se adapta elegantemente al entorno de mínima confianza de blockchain con verificación criptográfica que reemplaza la coordinación centralizada.

El mecanismo de consenso SAFROLE se basa en décadas de investigación en sistemas distribuidos. El algoritmo evoluciona de SASSAFRAS (Semi-Anonymous Sortition of Staked Assignees for Fixed-time Rhythmic Assignment of Slots), simplificándolo para los requisitos específicos de JAM mientras preserva propiedades clave: producción de bloques sin bifurcaciones a través de la selección anónima de validadores, resistencia a ataques DoS dirigidos mediante anonimato basado en zkSNARKs hasta la producción de bloques, y temporización determinista que permite una programación precisa de recursos.

Los fundamentos criptográficos combinan las Funciones Aleatorias Verificables en Anillo (RingVRF) para probar la membresía del conjunto de validadores de forma anónima con zkSNARKs para una verificación eficiente. El sistema de tickets con dos épocas de antelación —los validadores envían tickets dos épocas antes de la producción de bloques— previene varios ataques mientras mantiene las garantías de anonimato. Esto representa una aplicación elegante de primitivas criptográficas modernas para resolver desafíos prácticos de consenso.

Los Validadores Económicos (ELV) como alternativa a la verificación de pruebas ZK proporcionan un novedoso análisis de equilibrio entre seguridad y costo. La documentación de JAM afirma que los ELV son aproximadamente 4,000 veces más rentables que las pruebas de conocimiento cero para garantizar la corrección computacional. El modelo se basa en la seguridad criptoeconómica: validadores seleccionados aleatoriamente reejecutan el trabajo para verificar la corrección, y los resultados incorrectos desencadenan disputas y posibles recortes (slashing). Este enfoque "optimista", donde se asume la corrección a menos que se impugne, refleja los rollups optimistas, pero opera a nivel de protocolo con finalidad inmediata después de las auditorías de los validadores.

El futuro potencialmente combina ELV y pruebas ZK en un modelo de seguridad híbrido: ELV para seguridad limitada donde las garantías criptoeconómicas son suficientes, pruebas ZK para seguridad ilimitada donde se requiere certeza matemática. Esta flexibilidad permite a las aplicaciones elegir modelos de seguridad que coincidan con sus requisitos y restricciones económicas en lugar de forzar un enfoque único para todos.

Las contribuciones teóricas novedosas de JAM incluyen:

El paradigma de blockchain sin transacciones desafía una suposición fundamental de la arquitectura blockchain. Bitcoin, Ethereum y casi todos los sucesores se organizan en torno a transacciones —acciones de usuario firmadas en un mempool que compiten por la inclusión en el bloque. JAM elimina por completo las transacciones: todos los cambios de estado fluyen a través de paquetes de trabajo que contienen elementos de trabajo que pasan por las etapas Refine y Accumulate. Este modelo fundamentalmente diferente plantea interesantes preguntas de investigación sobre MEV (Valor Máximo Extraíble), resistencia a la censura y experiencia del usuario que la investigación académica aún no ha explorado completamente.

El consenso parcialmente coherente representa una posición novedosa entre los sistemas totalmente coherentes (cadenas monolíticas) y totalmente incoherentes (fragmentos aislados). JAM garantiza la coherencia durante ventanas críticas de 6 segundos cuando los servicios se ubican en los mismos núcleos, mientras acepta la asincronía entre núcleos. Los mecanismos económicos que impulsan los patrones de coherencia —los secuenciadores que optimizan la composición de los paquetes de trabajo para maximizar el rendimiento y minimizar la latencia— crean un interesante problema de teoría de juegos. ¿Cómo organizan los actores económicos racionales los servicios entre los núcleos? ¿Qué equilibrios emergen? Estas preguntas esperan validación empírica.

Los Accords como contratos inteligentes de múltiples instancias que gobiernan los protocolos de interacción entre servicios, por lo demás independientes, introducen una primitiva novedosa de minimización de confianza. En lugar de confiar en puentes o retransmisores para la comunicación entre servicios, los Accords imponen protocolos a nivel de consenso de JAM mientras distribuyen la ejecución a través de los límites del servicio. Esta abstracción permite patrones de minimización de confianza como la teletransportación directa de tokens, operaciones atómicas multiservicio y llamadas síncronas entre servicios, capacidades teóricas que requieren validación empírica para sus propiedades de seguridad y viabilidad económica.

La optimización del consumo de recursos mixto crea un interesante problema de programación y economía. Los servicios tienen diversos perfiles de recursos: algunos están limitados por la computación (verificación de pruebas ZK), otros por los datos (servicios de disponibilidad), y otros están equilibrados. La utilización óptima de los recursos del validador requiere emparejar servicios complementarios en paquetes de trabajo. ¿Qué mecanismos surgen para coordinar este emparejamiento? ¿Cómo se desarrollan los mercados para la agrupación de servicios complementarios? Esto representa un territorio inexplorado en la investigación de la economía de blockchain.

El procesamiento en tubería (pipelining) a través de raíces de estado previas en lugar de raíces de estado posteriores permite el procesamiento de bloques superpuestos, pero introduce complejidad en el manejo de disputas. Si la carga de trabajo pesada de Accumulate para el bloque N ocurre después de que el bloque N+1 comienza a procesarse, ¿cómo manejan los validadores las discrepancias? El mecanismo de juicio que permite pausas de finalidad de hasta 1 hora para la resolución de disputas proporciona respuestas, pero las implicaciones de seguridad de esta elección de diseño justifican un análisis formal.

Se están llevando a cabo esfuerzos de verificación formal con Runtime Verification desarrollando la semántica del K Framework para PVM. El K Framework proporciona rigor matemático para definir la semántica de los lenguajes de programación y las máquinas virtuales, lo que permite pruebas formales de las propiedades de corrección. Los entregables incluyen especificaciones de referencia, depuradores y herramientas de prueba de propiedades. Este nivel de rigor matemático, aunque común en el software aeroespacial y militar, sigue siendo relativamente raro en el desarrollo de blockchain, lo que representa una maduración del campo hacia los métodos formales.

Síntesis: el lugar de JAM en la evolución de blockchain e implicaciones para web3

JAM representa la culminación de más de una década de investigación sobre la escalabilidad de blockchain, intentando construir lo que las generaciones anteriores prometieron pero no pudieron cumplir. Bitcoin introdujo el consenso descentralizado pero no pudo escalar más allá de 7 TPS. Ethereum añadió programabilidad pero alcanzó límites de rendimiento similares. La visión original de Ethereum 2.0 propuso una fragmentación nativa con 64 cadenas de fragmentos, pero resultó demasiado compleja, virando hacia el pragmatismo centrado en L2. Polkadot fue pionero en la seguridad compartida para parachains, pero con límites fijos de 50 cadenas y acceso basado en subastas.

JAM sintetiza las lecciones de estos intentos: mantener la descentralización y la seguridad (lección de Bitcoin), permitir la computación arbitraria (lección de Ethereum), escalar a través de la paralelización (intento de Ethereum 2.0), proporcionar seguridad compartida (innovación de Polkadot), añadir componibilidad síncrona (la pieza que faltaba) y reducir las barreras de entrada (accesibilidad).

La compensación entre la elegancia teórica y la complejidad práctica sigue siendo el riesgo central de JAM. El diseño del protocolo es intelectualmente coherente: el dualismo Refine-Accumulate, las continuaciones de PVM, el consenso SAFROLE, la ejecución parcialmente coherente, todo encaja lógicamente. Pero la solidez teórica no garantiza el éxito práctico. El giro de Ethereum de la fragmentación nativa a los L2 no se debió a una imposibilidad teórica, sino a la complejidad práctica en la implementación, las pruebas y la coordinación.

La estrategia de actualización única y completa de JAM amplifica tanto las ventajas como las desventajas. El éxito ofrece todas las mejoras simultáneamente —42 veces la disponibilidad de datos, servicios sin permisos, componibilidad síncrona, rendimiento RISC-V— en un único despliegue coordinado. El fracaso o los retrasos afectan a toda la actualización en lugar de enviar mejoras incrementales. Los 43 equipos de implementación independientes, las extensas fases de testnet y las pruebas a gran escala de JAM Toaster tienen como objetivo mitigar los riesgos, pero coordinar a 1,023 validadores a través de una transición arquitectónica importante sigue siendo algo sin precedentes en la historia de blockchain.

La transición del modelo económico de las subastas de parachains a los mercados de tiempo de núcleo representa un mecanismo en gran medida no probado a escala. Si bien el Agile Coretime de Polkadot entró en funcionamiento en 2024, el modelo basado en servicios de JAM con despliegue sin permisos crea dinámicas económicas completamente nuevas. ¿Cómo fijarán los mercados de tiempo de núcleo el precio de los diferentes tipos de servicios? ¿Se concentrará la liquidez en núcleos específicos? ¿Cómo optimizarán los secuenciadores la composición de los paquetes de trabajo? Estas preguntas carecen de respuestas empíricas hasta el despliegue en la red principal.

La adopción por parte de los desarrolladores depende de si el novedoso modelo de programación de JAM —puntos de entrada Refine/Accumulate/onTransfer, ejecución sin estado y luego con estado, asincronía basada en continuaciones— proporciona suficiente valor para justificar la curva de aprendizaje. El éxito de Ethereum se debió en parte a la familiaridad de la EVM para los desarrolladores a pesar de sus ineficiencias. La PVM de JAM ofrece un rendimiento superior pero requiere repensar la arquitectura de las aplicaciones en torno a los paquetes de trabajo y los servicios. El despliegue sin permisos y la eliminación de las subastas reducen drásticamente las barreras financieras, pero los cambios de modelo mental pueden resultar más desafiantes que los financieros.

La dinámica competitiva evoluciona a medida que JAM se despliega. Los L2 de Ethereum tienen importantes efectos de red, liquidez y cuota de mercado de desarrolladores. Solana ofrece un rendimiento excepcional con modelos de programación más simples. Cosmos proporciona una soberanía que algunos proyectos valoran mucho. JAM no solo debe ofrecer capacidades técnicas, sino también atraer a los participantes del ecosistema —desarrolladores, usuarios, capital— que hacen que las redes blockchain sean valiosas. El ecosistema existente de Polkadot proporciona una base, pero expandirse más allá de los participantes actuales requiere propuestas de valor convincentes para la migración.

Las contribuciones de investigación que introduce JAM aportan valor independientemente del éxito comercial. La arquitectura blockchain sin transacciones, el consenso parcialmente coherente, los Accords para protocolos entre servicios con mínima confianza, la optimización del consumo de recursos mixto y el modelo de ejecución basado en continuaciones de PVM representan enfoques novedosos que avanzan la informática de blockchain. Incluso si JAM no logra una posición dominante en el mercado, estas innovaciones informarán futuros diseños de protocolos y expandirán el espacio de soluciones para la escalabilidad de blockchain.

Las implicaciones a largo plazo para web3 si JAM tiene éxito incluyen cambios fundamentales en la forma en que se arquitecturan las aplicaciones descentralizadas. El paradigma actual de "desplegar en una blockchain" (Ethereum L1, Solana, Avalanche) o "construir tu propia blockchain" (Cosmos, parachains de Polkadot) añade una opción intermedia: "desplegar como un servicio" con seguridad compartida instantánea, asignación flexible de recursos y componibilidad con el ecosistema más amplio. Esto podría acelerar la innovación al eliminar las preocupaciones de infraestructura: los equipos se centran en la lógica de la aplicación mientras JAM se encarga del consenso, la seguridad y la escalabilidad.

La visión de una computadora global descentralizada se vuelve arquitectónicamente factible si JAM cumple con los objetivos de rendimiento. Con 850 MB/s de disponibilidad de datos, 150 mil millones de gas por segundo y una capacidad de más de 3.4 millones de TPS, el rendimiento computacional se acerca a niveles en los que aplicaciones tradicionales significativas podrían migrar a la infraestructura descentralizada. No para todos los casos de uso —las aplicaciones sensibles a la latencia aún enfrentan limitaciones fundamentales de la velocidad de la luz, los requisitos de privacidad pueden entrar en conflicto con la ejecución transparente—, pero para problemas de coordinación, infraestructura financiera, seguimiento de la cadena de suministro, identidad digital y muchas otras aplicaciones, la computación descentralizada se vuelve técnicamente viable a escala.

Las métricas de éxito de JAM durante los próximos 2 a 5 años incluirán: el número de servicios desplegados más allá de las parachains heredadas (midiendo la expansión del ecosistema), el rendimiento real y la disponibilidad de datos logrados en producción (validando las afirmaciones de rendimiento), la sostenibilidad económica de los mercados de tiempo de núcleo (demostrando que el modelo económico funciona), las métricas de adopción por parte de los desarrolladores (actividad en GitHub, tráfico de documentación, participación en programas educativos) y el historial de seguridad (ausencia de exploits importantes o fallos de consenso).

La pregunta final sigue siendo si JAM representa una mejora incremental en el espacio de diseño de blockchain —mejor que las alternativas pero no fundamentalmente diferente en capacidad— o un salto generacional que permite categorías de aplicaciones completamente nuevas imposibles en la infraestructura actual. Los fundamentos arquitectónicos —ejecución parcialmente coherente, continuaciones de PVM, dualismo Refine-Accumulate, Accords— sugieren que esto último es posible. Si el potencial se traduce en realidad depende de la calidad de la ejecución, la construcción del ecosistema y los factores de tiempo de mercado que trascienden el mérito puramente técnico.

Para los investigadores de web3, JAM proporciona una rica plataforma experimental para estudiar nuevos mecanismos de consenso, arquitecturas de ejecución, mecanismos de coordinación económica y modelos de seguridad. Los próximos años generarán datos empíricos que probarán las predicciones teóricas sobre el consenso parcialmente coherente, la arquitectura sin transacciones y la organización de blockchain basada en servicios. Independientemente de los resultados comerciales, el conocimiento adquirido informará el diseño de protocolos blockchain durante las próximas décadas.

Mercados Descentralizados de Inferencia de IA: Bittensor, Gensyn y Cuckoo AI

· 86 min de lectura
Dora Noda
Software Engineer

Introducción

Los mercados descentralizados de inferencia/entrenamiento de IA buscan aprovechar los recursos de cómputo globales y los modelos comunitarios de una manera sin confianza (trustless). Proyectos como Bittensor, Gensyn y Cuckoo Network (Cuckoo AI) ilustran cómo la tecnología blockchain puede potenciar mercados abiertos de IA. Cada plataforma tokeniza activos clave de IA —poder de cómputo, modelos de aprendizaje automático y, a veces, datos— en unidades económicas en la cadena. A continuación, profundizamos en las arquitecturas técnicas que sustentan estas redes, cómo tokenizan los recursos, sus estructuras de gobernanza e incentivos, los métodos para rastrear la propiedad de los modelos, los mecanismos de reparto de ingresos y las superficies de ataque (por ejemplo, ataques Sybil, colusión, parasitismo, envenenamiento) que surgen. Una tabla comparativa al final resume todas las dimensiones clave entre Bittensor, Gensyn y Cuckoo AI.

Arquitecturas Técnicas

Bittensor: “Internet Neuronal” Descentralizado en Subredes

Bittensor está construido sobre una blockchain de Capa 1 personalizada (la cadena Subtensor, basada en Substrate) que coordina una red de nodos de modelos de IA a través de muchas subredes especializadas. Cada subred es una minirred independiente que se enfoca en una tarea de IA particular (por ejemplo, una subred para la generación de lenguaje, otra para la generación de imágenes, etc.). Los participantes en Bittensor asumen roles distintos:

  • Mineros – ejecutan modelos de aprendizaje automático en su hardware y proporcionan respuestas de inferencia (o incluso realizan entrenamiento) para la tarea de la subred. En esencia, un minero es un nodo que aloja un modelo de IA que responderá a las consultas.
  • Validadores – consultan los modelos de los mineros con prompts y evalúan la calidad de las respuestas, formando una opinión sobre qué mineros están contribuyendo con resultados valiosos. Los validadores califican efectivamente el rendimiento de los mineros.
  • Propietarios de Subred – crean y definen subredes, estableciendo las reglas sobre qué tareas se realizan y cómo se lleva a cabo la validación en esa subred. Un propietario de subred podría, por ejemplo, especificar que una subred es para un cierto conjunto de datos o modalidad y definir el procedimiento de validación.
  • Delegadores – los poseedores de tokens que no ejecutan nodos pueden delegar (hacer stake) sus tokens de Bittensor (TAO) a mineros o validadores para respaldar a los de mejor rendimiento y ganar una parte de las recompensas (similar al staking en redes de prueba de participación).

El mecanismo de consenso de Bittensor es novedoso: en lugar de la validación de bloques tradicional, Bittensor utiliza el consenso Yuma, que es una forma de "prueba de inteligencia". En el consenso Yuma, las evaluaciones de los validadores sobre los mineros se agregan en la cadena para determinar la distribución de recompensas. Cada bloque de 12 segundos, la red acuña nuevos tokens TAO y los distribuye según el consenso de los validadores sobre qué mineros proporcionaron trabajo útil. Las puntuaciones de los validadores se combinan en un esquema de mediana ponderada por participación (stake): las opiniones atípicas se recortan y prevalece la opinión de la mayoría honesta. Esto significa que si la mayoría de los validadores están de acuerdo en que un minero fue de alta calidad, ese minero obtendrá una fuerte recompensa; si un validador se desvía mucho de los demás (posiblemente debido a colusión o error), ese validador es penalizado ganando menos. De esta manera, la blockchain de Bittensor coordina un bucle de retroalimentación minero-validador: los mineros compiten para producir los mejores resultados de IA, y los validadores curan y clasifican esos resultados, ganando ambas partes tokens proporcionales al valor que agregan. Esta arquitectura a menudo se describe como una "red neuronal descentralizada" o "cerebro global", donde los modelos aprenden de las señales de los demás y evolucionan colectivamente. Notablemente, Bittensor actualizó recientemente su cadena para admitir la compatibilidad con EVM (para contratos inteligentes) e introdujo dTAO, un sistema de tokens y staking específicos de subred (explicado más adelante) para descentralizar aún más el control de la asignación de recursos.

Gensyn: Protocolo de Cómputo Distribuido sin Confianza (Trustless)

Gensyn aborda la IA descentralizada desde el ángulo de un protocolo de computación distribuida para el aprendizaje automático. Su arquitectura conecta a desarrolladores (solicitantes) que tienen tareas de IA (como entrenar un modelo o ejecutar un trabajo de inferencia) con proveedores de cómputo (resolutores) de todo el mundo que tienen recursos de GPU/TPU de sobra. Originalmente, Gensyn planeaba una cadena L1 en Substrate, pero giró hacia la construcción en Ethereum como un rollup para una mayor seguridad y liquidez. La red Gensyn es, por lo tanto, una Capa 2 de Ethereum (un rollup de Ethereum) que coordina la publicación de trabajos y los pagos, mientras que la computación ocurre fuera de la cadena en el hardware de los proveedores.

Una innovación central del diseño de Gensyn es su sistema de verificación para el trabajo fuera de la cadena. Gensyn utiliza una combinación de verificación optimista (pruebas de fraude) y técnicas criptográficas para garantizar que cuando un resolutor afirma haber ejecutado una tarea de entrenamiento/inferencia, el resultado sea correcto. En la práctica, el protocolo involucra múltiples roles de participantes:

  • Solicitante – la parte que solicita un trabajo (por ejemplo, alguien que necesita entrenar un modelo). Pagan la tarifa de la red y proporcionan el modelo/datos o la especificación de la tarea.
  • Resolutor – un nodo que puja y ejecuta la tarea de ML en su hardware. Entrenarán el modelo o ejecutarán la inferencia según lo solicitado, luego enviarán los resultados y una prueba de computación.
  • Verificador/Desafiador – nodos que pueden auditar o verificar aleatoriamente el trabajo del resolutor. Gensyn implementa un esquema al estilo de Truebit donde, por defecto, el resultado de un resolutor se acepta, pero un verificador puede desafiarlo dentro de una ventana si sospecha una computación incorrecta. En un desafío, se utiliza una "búsqueda binaria" interactiva a través de los pasos de la computación (un protocolo de prueba de fraude) para señalar cualquier discrepancia. Esto permite que la cadena resuelva disputas realizando solo una parte crítica mínima de la computación en la cadena, en lugar de rehacer toda la costosa tarea.

Crucialmente, Gensyn está diseñado para evitar la redundancia masiva de los enfoques ingenuos. En lugar de tener muchos nodos repitiendo el mismo trabajo de ML (lo que destruiría los ahorros de costos), el enfoque de "prueba de aprendizaje" de Gensyn utiliza metadatos de entrenamiento para verificar que se ha progresado en el aprendizaje. Por ejemplo, un resolutor podría proporcionar hashes criptográficos o puntos de control de los pesos intermedios del modelo y una prueba sucinta de que estos progresaron de acuerdo con las actualizaciones de entrenamiento. Esta prueba probabilística de aprendizaje se puede verificar de manera mucho más económica que volver a ejecutar todo el entrenamiento, lo que permite una verificación sin confianza sin replicación completa. Solo si un verificador detecta una anomalía se activaría una computación más pesada en la cadena como último recurso. Este enfoque reduce drásticamente la sobrecarga en comparación con la verificación por fuerza bruta, haciendo que el entrenamiento de ML descentralizado sea más factible. La arquitectura de Gensyn, por lo tanto, enfatiza fuertemente el diseño de juegos criptoeconómicos: los resolutores depositan una participación o fianza, y si hacen trampa (enviando resultados incorrectos), pierden esa participación a favor de los verificadores honestos que los atrapan. Al combinar la coordinación de la blockchain (para pagos y resolución de disputas) con el cómputo fuera de la cadena y una verificación inteligente, Gensyn crea un mercado para el cómputo de ML que puede aprovechar las GPU inactivas en cualquier lugar mientras mantiene la falta de confianza. El resultado es un "protocolo de cómputo" a hiperescala donde cualquier desarrollador puede acceder a un poder de entrenamiento asequible y distribuido globalmente bajo demanda.

Cuckoo AI: Plataforma de Servicios de IA Descentralizada Full-Stack

Cuckoo Network (o Cuckoo AI) adopta un enfoque más integrado verticalmente, con el objetivo de proporcionar servicios de IA descentralizados de extremo a extremo en lugar de solo cómputo en bruto. Cuckoo construyó su propia blockchain (inicialmente una Capa 1 llamada Cuckoo Chain en Arbitrum Orbit, un marco de rollup compatible con Ethereum) para orquestar todo: no solo empareja trabajos con GPU, sino que también aloja aplicaciones de IA y maneja pagos en un solo sistema. El diseño es full-stack: combina una blockchain para transacciones y gobernanza, una capa de recursos de GPU/CPU descentralizada y aplicaciones y API de IA orientadas al usuario en la parte superior. En otras palabras, Cuckoo integra las tres capas —blockchain, cómputo y aplicación de IA— dentro de una única plataforma.

Los participantes en Cuckoo se dividen en cuatro grupos:

  • Constructores de Aplicaciones de IA (Coordinadores) – son desarrolladores que despliegan modelos o servicios de IA en Cuckoo. Por ejemplo, un desarrollador podría alojar un generador de imágenes Stable Diffusion o un chatbot LLM como servicio. Ejecutan Nodos Coordinadores, que son responsables de gestionar su servicio: aceptar solicitudes de usuarios, dividirlas en tareas y asignar esas tareas a los mineros. Los coordinadores hacen stake del token nativo ($CAI) para unirse a la red y obtener el derecho a utilizar mineros. Esencialmente, actúan como orquestadores de capa 2 que interactúan entre los usuarios y los proveedores de GPU.
  • Mineros de GPU/CPU (Nodos de Tarea) – son los proveedores de recursos. Los mineros ejecutan el cliente de tareas de Cuckoo y contribuyen con su hardware para realizar tareas de inferencia para las aplicaciones de IA. Por ejemplo, a un minero se le podría asignar una solicitud de generación de imágenes (con un modelo y prompt dados) por parte de un coordinador y usar su GPU para calcular el resultado. Los mineros también deben hacer stake de $CAI para garantizar el compromiso y el buen comportamiento. Ganan recompensas en tokens por cada tarea que completan correctamente.
  • Usuarios Finales – los consumidores de las aplicaciones de IA. Interactúan a través del portal web o las API de Cuckoo (por ejemplo, generando arte a través de CooVerse o chateando con personalidades de IA). Los usuarios pueden pagar con criptomonedas por cada uso o posiblemente contribuir con su propio cómputo (o stake) para compensar los costos de uso. Un aspecto importante es la resistencia a la censura: si un coordinador (proveedor de servicios) es bloqueado o se cae, los usuarios pueden cambiar a otro que sirva la misma aplicación, ya que múltiples coordinadores podrían alojar modelos similares en la red descentralizada.
  • Stakers (Delegadores) – los miembros de la comunidad que no ejecutan servicios de IA o hardware de minería aún pueden participar haciendo stake de $CAI en aquellos que sí lo hacen. Al votar con su stake en coordinadores o mineros de confianza, ayudan a señalar la reputación y, a cambio, ganan una parte de las recompensas de la red. Este diseño construye una capa de reputación Web3: los buenos actores atraen más stake (y por lo tanto, confianza y recompensas), mientras que los malos actores pierden stake y reputación. Incluso los usuarios finales pueden hacer stake en algunos casos, alineándolos con el éxito de la red.

La cadena Cuckoo (ahora en proceso de transición de una cadena independiente a un rollup de seguridad compartida) rastrea todas estas interacciones. Cuando un usuario invoca un servicio de IA, el nodo coordinador crea asignaciones de tareas en la cadena para los mineros. Los mineros ejecutan las tareas fuera de la cadena y devuelven los resultados al coordinador, que los valida (por ejemplo, verificando que la imagen o el texto de salida no sean galimatías) y entrega el resultado final al usuario. La blockchain se encarga de la liquidación de pagos: por cada tarea, el contrato inteligente del coordinador paga al minero en $CAI (a menudo agregando micropagos en pagos diarios). Cuckoo enfatiza la falta de confianza y la transparencia – todos los participantes hacen stake de tokens y todas las asignaciones y finalizaciones de tareas se registran, por lo que se desalienta el engaño por la amenaza de perder el stake y por la visibilidad pública del rendimiento. El diseño modular de la red significa que se pueden agregar fácilmente nuevos modelos de IA o casos de uso: aunque comenzó con la generación de texto a imagen como prueba de concepto, su arquitectura es lo suficientemente general como para admitir otras cargas de trabajo de IA (por ejemplo, inferencia de modelos de lenguaje, transcripción de audio, etc.).

Un aspecto notable de la arquitectura de Cuckoo es que inicialmente lanzó su propia blockchain de Capa 1 para maximizar el rendimiento de las transacciones de IA (alcanzando un pico de 300k transacciones diarias durante las pruebas). Esto permitió optimizaciones personalizadas para la programación de tareas de IA. Sin embargo, el equipo encontró que mantener una L1 independiente era costoso y complejo, y a mediados de 2025 decidieron descontinuar la cadena personalizada y migrar a un modelo de rollup/AVS (Servicio Validado Activo) en Ethereum. Esto significa que Cuckoo heredará la seguridad de Ethereum o de una L2 como Arbitrum, en lugar de ejecutar su propio consenso, pero continuará operando su mercado de IA descentralizado en esa capa de seguridad compartida. El cambio tiene como objetivo mejorar la seguridad económica (aprovechando la robustez de Ethereum) y permitir que el equipo de Cuckoo se concentre en el producto en lugar del mantenimiento de la cadena de bajo nivel. En resumen, la arquitectura de Cuckoo crea una plataforma de servicio de IA descentralizada donde cualquiera puede conectar hardware o desplegar un servicio de modelo de IA, y los usuarios de todo el mundo pueden acceder a aplicaciones de IA con un costo menor y menos dependencia de la infraestructura de las grandes tecnológicas.

Mecanismos de Tokenización de Activos

Un tema común en estas redes es la conversión de cómputo, modelos y datos en activos en la cadena o unidades económicas que pueden ser comercializadas o monetizadas. Sin embargo, cada proyecto se enfoca en tokenizar estos recursos de diferentes maneras:

  • Poder de Cómputo: Las tres plataformas convierten el trabajo de cómputo en tokens de recompensa. En Bittensor, la computación útil (inferencia o entrenamiento realizado por un minero) se cuantifica a través de las puntuaciones de los validadores y se recompensa con tokens TAO en cada bloque. Esencialmente, Bittensor "mide" la inteligencia aportada y acuña TAO como una mercancía que representa esa contribución. Gensyn trata explícitamente el cómputo como una mercancía – su protocolo crea un mercado donde el tiempo de GPU es el producto, y el precio se establece por la oferta y la demanda en términos de tokens. Los desarrolladores compran cómputo usando el token, y los proveedores ganan tokens vendiendo los ciclos de su hardware. El equipo de Gensyn señala que cualquier recurso digital (cómputo, datos, algoritmos) puede ser representado y comercializado en un mercado sin confianza similar. Cuckoo tokeniza el cómputo a través de un token ERC-20 $CAI emitido como pago por tareas completadas. Los proveedores de GPU esencialmente "minan" CAI al realizar trabajos de inferencia de IA. El sistema de Cuckoo crea registros en la cadena de las tareas, por lo que se puede pensar en cada tarea de GPU completada como una unidad atómica de trabajo que se paga en tokens. La premisa en los tres es que el poder de cómputo, que de otro modo estaría inactivo o inaccesible, se convierte en un activo tokenizado y líquido, ya sea a través de emisiones de tokens a nivel de protocolo (como en Bittensor y el Cuckoo inicial) o a través de un mercado abierto de órdenes de compra/venta para trabajos de cómputo (como en Gensyn).

  • Modelos de IA: Representar los modelos de IA como activos en la cadena (por ejemplo, NFT o tokens) todavía es incipiente. Bittensor no tokeniza los modelos en sí mismos; los modelos permanecen fuera de la cadena bajo la propiedad de los mineros. En cambio, Bittensor valora indirectamente los modelos al recompensar a los que tienen un buen rendimiento. En efecto, la "inteligencia" de un modelo se convierte en ganancias de TAO, pero no hay un NFT que represente los pesos del modelo o permita a otros usarlo. El enfoque de Gensyn está en las transacciones de cómputo, no explícitamente en la creación de tokens para modelos. Un modelo en Gensyn es típicamente proporcionado por un desarrollador fuera de la cadena (quizás de código abierto o propietario), entrenado por resolutores y devuelto; no hay un mecanismo incorporado para crear un token que posea el modelo o su propiedad intelectual. (Dicho esto, el mercado de Gensyn podría facilitar potencialmente el comercio de artefactos o puntos de control de modelos si las partes lo eligen, pero el protocolo en sí ve los modelos como el contenido de la computación en lugar de un activo tokenizado). Cuckoo se encuentra en un punto intermedio: habla de "agentes de IA" y modelos integrados en la red, pero actualmente no hay un token no fungible que represente cada modelo. En cambio, un modelo es desplegado por un constructor de aplicaciones y luego servido a través de la red. Los derechos de uso de ese modelo se tokenizan implícitamente en el sentido de que el modelo puede ganar $CAI cuando se utiliza (a través del coordinador que lo despliega). Las tres plataformas reconocen el concepto de tokenización de modelos —por ejemplo, dar a las comunidades la propiedad de los modelos a través de tokens— pero las implementaciones prácticas son limitadas. Como industria, la tokenización de modelos de IA (por ejemplo, como NFT con derechos de propiedad y participación en los beneficios) todavía se está explorando. El enfoque de Bittensor de que los modelos intercambien valor entre sí es una forma de "mercado de modelos" sin un token explícito por modelo. El equipo de Cuckoo señala que la propiedad descentralizada de modelos es prometedora para reducir las barreras frente a la IA centralizada, pero requiere métodos efectivos para verificar los resultados y el uso de los modelos en la cadena. En resumen, el poder de cómputo se tokeniza inmediatamente (es sencillo pagar tokens por el trabajo realizado), mientras que los modelos se tokenizan indirecta o aspiracionalmente (recompensados por sus resultados, posiblemente representados por stake o reputación, pero aún no tratados como NFT transferibles en estas plataformas).

  • Datos: La tokenización de datos sigue siendo lo más difícil. Ninguno de los proyectos, Bittensor, Gensyn o Cuckoo, tiene mercados de datos en la cadena completamente generalizados e integrados (donde los conjuntos de datos se comercializan con derechos de uso exigibles). Los nodos de Bittensor pueden entrenar con varios conjuntos de datos, pero esos conjuntos de datos no forman parte del sistema en la cadena. Gensyn podría permitir que un desarrollador proporcione un conjunto de datos para el entrenamiento, pero el protocolo no tokeniza esos datos; simplemente se proporcionan fuera de la cadena para que el resolutor los use. Cuckoo tampoco tokeniza los datos del usuario; maneja principalmente los datos (como los prompts o resultados del usuario) de manera transitoria para las tareas de inferencia. El blog de Cuckoo declara explícitamente que "los datos descentralizados siguen siendo difíciles de tokenizar" a pesar de ser un recurso crítico. Los datos son sensibles (problemas de privacidad y propiedad) y difíciles de manejar con la tecnología blockchain actual. Por lo tanto, mientras que el cómputo se está mercantilizando y los modelos comienzan a serlo, los datos permanecen en gran medida fuera de la cadena, excepto en casos especiales (algunos proyectos fuera de estos tres están experimentando con uniones de datos y recompensas en tokens por contribuciones de datos, pero eso está fuera de nuestro alcance actual). En resumen, el poder de cómputo es ahora una mercancía en la cadena en estas redes, los modelos se valoran a través de tokens pero aún no se tokenizan individualmente como activos, y la tokenización de datos sigue siendo un problema abierto (más allá de reconocer su importancia).

Gobernanza e Incentivos

Un diseño robusto de gobernanza e incentivos es crucial para que estas redes de IA descentralizadas funcionen de manera autónoma y justa. Aquí examinamos cómo cada plataforma se gobierna a sí misma (quién toma las decisiones, cómo ocurren las actualizaciones o los cambios de parámetros) y cómo alinean los incentivos de los participantes a través de la economía de tokens.

  • Gobernanza de Bittensor: En sus primeras etapas, el desarrollo y los parámetros de las subredes de Bittensor estaban en gran medida controlados por el equipo central y un conjunto de 64 validadores "raíz" en la subred principal. Esto era un punto de centralización: unos pocos validadores poderosos tenían una influencia desproporcionada en la asignación de recompensas, lo que llevó a lo que algunos llamaron un "sistema de votación oligárquico". Para abordar esto, Bittensor introdujo la gobernanza dTAO (TAO descentralizado) en 2025. El sistema dTAO cambió la asignación de recursos para que fuera impulsada por el mercado y controlada por la comunidad. Concretamente, los poseedores de TAO pueden hacer stake de sus tokens en pools de liquidez específicos de subred (esencialmente, "votan" sobre qué subredes deberían obtener más emisiones de la red) y reciben tokens alfa que representan la propiedad en esos pools de subred. Las subredes que atraen más stake tendrán un precio de token alfa más alto y obtendrán una mayor parte de la emisión diaria de TAO, mientras que las subredes impopulares o de bajo rendimiento verán cómo el capital (y por lo tanto las emisiones) se aleja. Esto crea un bucle de retroalimentación: si una subred produce servicios de IA valiosos, más personas hacen stake de TAO en ella (buscando recompensas), lo que le da a esa subred más TAO para recompensar a sus participantes, fomentando el crecimiento. Si una subred se estanca, los stakers se retiran a subredes más lucrativas. En efecto, los poseedores de TAO gobiernan colectivamente el enfoque de la red al señalar financieramente qué dominios de IA merecen más recursos. Esta es una forma de gobernanza en la cadena por peso de token, alineada con los resultados económicos. Aparte de la asignación de recursos, las principales actualizaciones del protocolo o los cambios de parámetros probablemente todavía pasan por propuestas de gobernanza donde los poseedores de TAO votan (Bittensor tiene un mecanismo para propuestas y referendos en la cadena gestionados por la Fundación Bittensor y un consejo electo, similar a la gobernanza de Polkadot). Con el tiempo, se puede esperar que la gobernanza de Bittensor se vuelva cada vez más descentralizada, con la fundación dando un paso atrás a medida que la comunidad (a través del stake de TAO) dirige cosas como la tasa de inflación, la aprobación de nuevas subredes, etc. La transición a dTAO es un gran paso en esa dirección, reemplazando a los tomadores de decisiones centralizados con un mercado de partes interesadas de tokens alineado con incentivos.

  • Incentivos de Bittensor: La estructura de incentivos de Bittensor está estrechamente entrelazada con su consenso. Cada bloque (12 segundos), se acuña exactamente 1 TAO nuevo y se divide entre los contribuyentes de cada subred según el rendimiento. La división predeterminada para la recompensa de bloque de cada subred es 41 % para los mineros, 41 % para los validadores y 18 % para el propietario de la subred. Esto asegura que todos los roles sean recompensados: los mineros ganan por hacer el trabajo de inferencia, los validadores ganan por su esfuerzo de evaluación, y los propietarios de subredes (que pueden haber iniciado los datos/tarea para esa subred) ganan un residual por proporcionar el "mercado" o el diseño de la tarea. Esos porcentajes están fijados en el protocolo y tienen como objetivo alinear los incentivos de todos hacia una producción de IA de alta calidad. El mecanismo de consenso Yuma refina aún más los incentivos al ponderar las recompensas según las puntuaciones de calidad: un minero que proporciona mejores respuestas (según el consenso de los validadores) obtiene una porción mayor de ese 41 %, y un validador que sigue de cerca el consenso honesto obtiene más de la porción del validador. Los de bajo rendimiento son eliminados económicamente. Además, los delegadores (stakers) que respaldan a un minero o validador generalmente recibirán una parte de las ganancias de ese nodo (los nodos a menudo establecen una comisión y dan el resto a sus delegadores, similar al staking en redes PoS). Esto permite a los poseedores pasivos de TAO apoyar a los mejores contribuyentes y obtener rendimiento, reforzando aún más la meritocracia. El token de Bittensor (TAO) es, por lo tanto, un token de utilidad: se requiere para el registro de nuevos mineros (los mineros deben gastar una pequeña cantidad de TAO para unirse, lo que combate el spam Sybil) y se puede hacer stake para aumentar la influencia o ganar a través de la delegación. También se prevé como un token de pago si los usuarios externos quieren consumir servicios de la red de Bittensor (por ejemplo, pagando TAO para consultar un modelo de lenguaje en Bittensor), aunque el mecanismo de recompensa interno ha sido la "economía" principal hasta ahora. La filosofía general de incentivos es recompensar la "inteligencia valiosa" —es decir, modelos que ayudan a producir buenos resultados de IA— y crear una competencia que mejore continuamente la calidad de los modelos en la red.

  • Gobernanza de Gensyn: El modelo de gobernanza de Gensyn está estructurado para evolucionar desde el control del equipo central al control de la comunidad a medida que la red madura. Inicialmente, Gensyn tendrá una Fundación Gensyn y un consejo electo que supervisarán las actualizaciones del protocolo y las decisiones del tesoro. Se espera que este consejo esté compuesto por miembros del equipo central y líderes comunitarios tempranos al principio. Gensyn planea un Evento de Generación de Tokens (TGE) para su token nativo (a menudo referido como GENS), después del cual el poder de gobernanza estaría cada vez más en manos de los poseedores de tokens a través de la votación en la cadena. El papel de la fundación es representar los intereses del protocolo y asegurar una transición suave hacia la descentralización total. En la práctica, Gensyn probablemente tendrá mecanismos de propuesta en la cadena donde los cambios en los parámetros (por ejemplo, la duración del juego de verificación, las tasas de comisión) o las actualizaciones se votan por la comunidad. Debido a que Gensyn se está implementando como un rollup de Ethereum, la gobernanza también podría vincularse a la seguridad de Ethereum (por ejemplo, usando claves de actualización para el contrato del rollup que eventualmente se entregan a una DAO de poseedores de tokens). La sección de descentralización y gobernanza del litepaper de Gensyn enfatiza que el protocolo debe ser en última instancia de propiedad global, alineándose con el ethos de que la "red para la inteligencia de máquinas" debería pertenecer a sus usuarios y contribuyentes. En resumen, la gobernanza de Gensyn comienza semi-centralizada pero está diseñada para convertirse en una DAO donde los poseedores de tokens GENS (potencialmente ponderados por stake o participación) toman decisiones colectivamente.

  • Incentivos de Gensyn: Los incentivos económicos en Gensyn son dinámicas de mercado sencillas complementadas con seguridad criptoeconómica. Los desarrolladores (clientes) pagan por las tareas de ML en el token de Gensyn, y los Resolutores ganan tokens al completar esas tareas correctamente. El precio de los ciclos de cómputo se determina en un mercado abierto; presumiblemente, los desarrolladores pueden publicar tareas con una recompensa y los resolutores pueden pujar o simplemente tomarla si el precio cumple con sus expectativas. Esto asegura que mientras haya oferta de GPU inactivas, la competencia reducirá el costo a una tasa justa (el equipo de Gensyn proyecta una reducción de costos de hasta el 80 % en comparación con los precios de la nube, ya que la red encuentra el hardware disponible más barato a nivel mundial). Por otro lado, los resolutores tienen el incentivo de ganar tokens por su trabajo; su hardware que de otro modo estaría inactivo ahora genera ingresos. Para garantizar la calidad, Gensyn requiere que los resolutores hagan stake de una garantía cuando aceptan un trabajo: si hacen trampa o producen un resultado incorrecto y son atrapados, pierden esa garantía (puede ser recortada y otorgada al verificador honesto). Los verificadores son incentivados por la posibilidad de ganar una recompensa "jackpot" si atrapan a un resolutor fraudulento, similar al diseño de Truebit de recompensar periódicamente a los verificadores que identifican con éxito una computación incorrecta. Esto mantiene a los resolutores honestos y motiva a algunos nodos a actuar como vigilantes. En un escenario óptimo (sin trampas), los resolutores simplemente ganan la tarifa de la tarea y el rol de verificador está mayormente inactivo (o uno de los resolutores participantes podría actuar también como verificador de otros). El token de Gensyn sirve así tanto como moneda de gas para comprar cómputo como garantía de stake que asegura el protocolo. El litepaper menciona una testnet con tokens no permanentes y que los participantes tempranos de la testnet serán recompensados en el TGE con tokens reales. Esto indica que Gensyn asignó parte del suministro de tokens para el arranque —recompensando a los primeros adoptantes, resolutores de prueba y miembros de la comunidad. A largo plazo, las tarifas de los trabajos reales deberían sostener la red. También puede haber una pequeña tarifa de protocolo (un porcentaje de cada pago de tarea) que va a un tesoro o se quema; este detalle aún no está confirmado, pero muchos protocolos de mercado incluyen una tarifa para financiar el desarrollo o la recompra y quema de tokens. En resumen, los incentivos de Gensyn se alinean en torno a la finalización honesta de los trabajos de ML: haz el trabajo, te pagan; intenta hacer trampa, pierdes el stake; verifica a otros, ganas si atrapas a los tramposos. Esto crea un sistema económico de autovigilancia destinado a lograr una computación distribuida confiable.

  • Gobernanza de Cuckoo: Cuckoo Network incorporó la gobernanza en su ecosistema desde el primer día, aunque todavía está en fase de desarrollo. El token CAIesexplıˊcitamenteuntokendegobernanzaademaˊsdesusrolesdeutilidad.LafilosofıˊadeCuckooesquelosoperadoresdenodosdeGPU,losdesarrolladoresdeaplicacioneseinclusolosusuariosfinalesdeberıˊantenervozenlaevolucioˊndelared,loquereflejasuvisioˊnimpulsadaporlacomunidad.Enlapraˊctica,lasdecisionesimportantes(comoactualizacionesdelprotocoloocambioseconoˊmicos)sedecidirıˊanmediantevotosponderadosportokens,presumiblementeatraveˊsdeunmecanismodeDAO.Porejemplo,Cuckoopodrıˊarealizarvotacionesenlacadenaparacambiarladistribucioˊnderecompensasoadoptarunanuevacaracterıˊstica,ylosposeedoresdeCAI es explícitamente un token de gobernanza además de sus roles de utilidad. La filosofía de Cuckoo es que los operadores de nodos de GPU, los desarrolladores de aplicaciones e incluso los usuarios finales deberían tener voz en la evolución de la red, lo que refleja su visión impulsada por la comunidad. En la práctica, las decisiones importantes (como actualizaciones del protocolo o cambios económicos) se decidirían mediante votos ponderados por tokens, presumiblemente a través de un mecanismo de DAO. Por ejemplo, Cuckoo podría realizar votaciones en la cadena para cambiar la distribución de recompensas o adoptar una nueva característica, y los poseedores de CAI (incluidos mineros, desarrolladores y usuarios) votarían. La votación en la cadena ya se utiliza como un sistema de reputación: Cuckoo requiere que cada rol haga stake de tokens, y luego los miembros de la comunidad pueden votar (quizás delegando stake o a través de módulos de gobernanza) sobre qué coordinadores o mineros son de confianza. Esto afecta las puntuaciones de reputación y podría influir en la programación de tareas (por ejemplo, un coordinador con más votos podría atraer a más usuarios, o un minero con más votos podría recibir más tareas). Es una mezcla de gobernanza e incentivo: usar tokens de gobernanza para establecer la confianza. La Fundación Cuckoo o el equipo central ha guiado la dirección del proyecto hasta ahora (por ejemplo, tomando la reciente decisión de descontinuar la cadena L1), pero su blog indica un compromiso de avanzar hacia la propiedad descentralizada. Identificaron que operar su propia cadena incurría en altos costos generales y que pivotar hacia un rollup permitirá un desarrollo más abierto y la integración con los ecosistemas existentes. Es probable que una vez en una capa compartida (como Ethereum), Cuckoo implemente una DAO más tradicional para las actualizaciones, con la comunidad votando usando CAI.

  • Incentivos de Cuckoo: El diseño de incentivos para Cuckoo tiene dos fases: la fase inicial de arranque con asignaciones de tokens fijas, y un estado futuro con reparto de ingresos impulsado por el uso. En su lanzamiento, Cuckoo realizó una distribución de "lanzamiento justo" de 1 mil millones de tokens CAI. El 51 % del suministro se reservó para la comunidad, asignado como:

  • Recompensas de Minería: 30 % del suministro total reservado para pagar a los mineros de GPU por realizar tareas de IA.

  • Recompensas de Staking: 11 % del suministro para aquellos que hacen stake y ayudan a asegurar la red.

  • Airdrops: 5 % para los primeros usuarios y miembros de la comunidad como incentivo de adopción.

  • (Otro 5 % fue para subvenciones a desarrolladores para fomentar la construcción en Cuckoo).

Esta gran asignación significa que en la red inicial, los mineros y stakers fueron recompensados de un pool de emisiones, incluso si la demanda real de los usuarios era baja. De hecho, la fase inicial de Cuckoo presentó altos rendimientos APY para el staking y la minería, lo que atrajo con éxito a los participantes, pero también a los "yield farmers" que solo estaban allí por los tokens. El equipo notó que muchos usuarios se fueron una vez que las tasas de recompensa cayeron, lo que indica que esos incentivos no estaban ligados a un uso genuino. Habiendo aprendido de esto, Cuckoo está cambiando a un modelo donde las recompensas se correlacionan directamente con la carga de trabajo real de IA. En el futuro (y parcialmente ya), cuando un usuario final paga por una inferencia de IA, ese pago (en CAI o posiblemente otro token aceptado convertido a CAI) se dividirá entre los contribuyentes:

  • Los mineros de GPU recibirán la mayor parte por el cómputo que proporcionaron.
  • El Coordinador (desarrollador de la aplicación) tomará una porción como el proveedor de servicios que suministró el modelo y manejó la solicitud.
  • Los Stakers que han delegado a esos mineros o coordinadores podrían obtener una pequeña parte o una recompensa inflacionaria, para continuar incentivando el respaldo de nodos confiables.
  • La Red/Tesorería podría retener una tarifa para el desarrollo continuo o para financiar futuros incentivos (o la tarifa podría ser cero/nominal para maximizar la asequibilidad para el usuario).

Esencialmente, Cuckoo se está moviendo hacia un modelo de reparto de ingresos: si una aplicación de IA en Cuckoo genera ganancias, esas ganancias se distribuyen a todos los contribuyentes de ese servicio de manera justa. Esto alinea los incentivos para que los participantes se beneficien del uso real en lugar de solo de la inflación. La red ya requería que todas las partes hicieran stake de CAI; esto significa que los mineros y coordinadores no solo ganan una recompensa plana, sino también posiblemente recompensas basadas en el stake (por ejemplo, un coordinador podría ganar mayores recompensas si muchos usuarios hacen stake en ellos o si ellos mismos hacen más stake, similar a cómo ganan los validadores de prueba de participación). En cuanto a los incentivos para los usuarios, Cuckoo también introdujo cosas como un portal de airdrops y faucets (que algunos usuarios explotaron) para sembrar la actividad inicial. En el futuro, los usuarios podrían ser incentivados a través de reembolsos en tokens por usar los servicios o a través de recompensas de gobernanza por participar en la curación (por ejemplo, quizás ganando pequeños tokens por calificar resultados o contribuir con datos). La conclusión es que el token de Cuckoo ($CAI) es multipropósito: es el token de gas/tarifa en la cadena (todas las transacciones y pagos lo usan), se usa para staking y votación, y es la unidad de recompensa por el trabajo realizado. Cuckoo menciona explícitamente que quiere vincular las recompensas de tokens a KPIs a nivel de servicio (indicadores clave de rendimiento) —por ejemplo, tiempo de actividad, rendimiento de consultas, satisfacción del usuario— para evitar incentivos puramente especulativos. Esto refleja una maduración de la economía de tokens desde la simple minería de liquidez a un modelo más sostenible e impulsado por la utilidad.

Propiedad de Modelos y Atribución de PI

Manejar la propiedad intelectual (PI) y los derechos de propiedad de los modelos de IA es un aspecto complejo de las redes de IA descentralizadas. Cada plataforma ha adoptado una postura ligeramente diferente, y en general esta es un área en evolución sin una solución completa todavía:

  • Bittensor: Los modelos en Bittensor son proporcionados por los nodos mineros, y esos mineros retienen el control total sobre los pesos de sus modelos (que nunca se publican en la cadena). Bittensor no rastrea explícitamente quién "posee" un modelo más allá del hecho de que se está ejecutando en una cierta dirección de billetera. Si un minero se va, su modelo se va con él. Por lo tanto, la atribución de PI en Bittensor es fuera de la cadena: si un minero usa un modelo propietario, no hay nada en la cadena que lo haga cumplir o incluso lo sepa. La filosofía de Bittensor fomenta las contribuciones abiertas (muchos mineros podrían usar modelos de código abierto como GPT-J u otros) y la red recompensa el rendimiento de esos modelos. Se podría decir que Bittensor crea una puntuación de reputación para los modelos (a través de las clasificaciones de los validadores), y esa es una forma de reconocer el valor del modelo, pero los derechos sobre el modelo en sí no están tokenizados ni distribuidos. Notablemente, los propietarios de subred en Bittensor podrían ser vistos como dueños de una pieza de PI: definen una tarea (que podría incluir un conjunto de datos o un método). El propietario de la subred acuña un NFT (llamado UID de subred) al crear una subred, y ese NFT les da derecho al 18 % de las recompensas en esa subred. Esto tokeniza efectivamente la creación de un mercado de modelos (la subred), si no las instancias del modelo. Si se considera la definición de la subred (digamos una tarea de reconocimiento de voz con un conjunto de datos particular) como PI, eso al menos se registra y recompensa. Pero los pesos individuales del modelo que los mineros entrenan, no hay un registro de propiedad en la cadena de ellos. La atribución viene en forma de recompensas pagadas a la dirección de ese minero. Bittensor actualmente no implementa un sistema donde, por ejemplo, varias personas puedan poseer conjuntamente un modelo y obtener un reparto automático de ingresos; la persona que ejecuta el modelo (minero) obtiene la recompensa y depende de ellos fuera de la cadena honrar cualquier licencia de PI del modelo que usaron.

  • Gensyn: En Gensyn, la propiedad del modelo es sencilla en el sentido de que el solicitante (el que quiere que se entrene un modelo) proporciona la arquitectura del modelo y los datos, y después del entrenamiento, recibe el artefacto del modelo resultante. Los resolutores que realizan el trabajo no tienen derechos sobre el modelo; son como contratistas que reciben un pago por un servicio. El protocolo de Gensyn asume así el modelo de PI tradicional: si tenías derechos legales sobre el modelo y los datos que enviaste, todavía los tienes después de que se entrene; la red de cómputo no reclama ninguna propiedad. Gensyn menciona que el mercado también podría comerciar algoritmos y datos como cualquier otro recurso. Esto sugiere un escenario en el que alguien podría ofrecer un modelo o algoritmo para su uso en la red, posiblemente por una tarifa, tokenizando así el acceso a ese modelo. Por ejemplo, un creador de modelos podría poner su modelo preentrenado en Gensyn y permitir que otros lo ajusten a través de la red por una tarifa (esto monetizaría efectivamente la PI del modelo). Si bien el protocolo no hace cumplir los términos de la licencia, se podrían codificar los requisitos de pago: un contrato inteligente podría requerir una tarifa para desbloquear los pesos del modelo para un resolutor. Sin embargo, estos son casos de uso especulativos; el diseño principal de Gensyn se trata de habilitar trabajos de entrenamiento. En cuanto a la atribución, si varias partes contribuyen a un modelo (digamos que una proporciona datos, otra proporciona cómputo), eso probablemente se manejaría mediante cualquier contrato o acuerdo que establezcan antes de usar Gensyn (por ejemplo, un contrato inteligente podría dividir el pago entre el proveedor de datos y el proveedor de cómputo). Gensyn en sí no rastrea "este modelo fue construido por X, Y, Z" en la cadena más allá del registro de qué direcciones se pagaron por el trabajo. En resumen, la PI del modelo en Gensyn permanece con el solicitante, y cualquier atribución o licencia debe manejarse a través de los acuerdos legales fuera del protocolo o a través de contratos inteligentes personalizados construidos sobre él.

  • Cuckoo: En el ecosistema de Cuckoo, los creadores de modelos (constructores de aplicaciones de IA) son participantes de primera clase: ellos despliegan el servicio de IA. Si un constructor de aplicaciones ajusta un modelo de lenguaje o desarrolla un modelo personalizado y lo aloja en Cuckoo, ese modelo es esencialmente su propiedad y actúan como el propietario del servicio. Cuckoo no se apropia de ninguna propiedad; en cambio, proporciona la infraestructura para que moneticen su uso. Por ejemplo, si un desarrollador despliega una IA de chatbot, los usuarios pueden interactuar con ella y el desarrollador (más los mineros) ganan CAI por cada interacción. La plataforma atribuye así los ingresos por uso al creador del modelo, pero no publica explícitamente los pesos del modelo ni los convierte en un NFT. De hecho, para ejecutar el modelo en las GPU de los mineros, el nodo coordinador probablemente tenga que enviar el modelo (o el tiempo de ejecución) al minero de alguna forma. Esto plantea preguntas sobre la PI: ¿podría un minero malicioso copiar los pesos del modelo y distribuirlos? En una red descentralizada, ese riesgo existe si se utilizan modelos propietarios. El enfoque actual de Cuckoo ha sido en modelos bastante abiertos (Stable Diffusion, modelos derivados de LLaMA, etc.) y en construir una comunidad, por lo que aún no hemos visto una aplicación de los derechos de PI a través de contratos inteligentes. La plataforma podría integrar potencialmente herramientas como la ejecución de modelos encriptados o enclaves seguros en el futuro para la protección de la PI, pero no se menciona nada específico en la documentación. Lo que rastrea es quién proporcionó el servicio del modelo para cada tarea: dado que el coordinador es una identidad en la cadena, todo el uso de su modelo se le atribuye, y obtienen automáticamente su parte de las recompensas. Si alguien entregara o vendiera un modelo a otra persona, efectivamente transferiría el control del nodo coordinador (quizás incluso simplemente dándoles la clave privada o el NFT si el rol de coordinador estuviera tokenizado). En la actualidad, la propiedad comunitaria de modelos (a través de participaciones en tokens) no está implementada, pero la visión de Cuckoo sugiere una IA descentralizada impulsada por la comunidad, por lo que podrían explorar permitir que las personas financien o gobiernen colectivamente un modelo de IA. La tokenización de modelos más allá de la propiedad individual sigue siendo un área abierta en estas redes; se reconoce como un objetivo (permitir que las comunidades posean modelos de IA en lugar de las corporaciones), pero en la práctica requiere soluciones para los desafíos de PI y verificación mencionados anteriormente.

En resumen, la propiedad de los modelos en Bittensor, Gensyn y Cuckoo se maneja fuera de la cadena por medios tradicionales: la persona o entidad que ejecuta o envía el modelo es efectivamente el propietario. Las redes proporcionan atribución en forma de recompensas económicas (pagando al contribuyente del modelo por su PI o esfuerzo). Ninguno de los tres tiene una licencia incorporada o una aplicación de regalías sobre el uso del modelo a nivel de contrato inteligente todavía. La atribución proviene de la reputación y la recompensa: por ejemplo, los mejores modelos de Bittensor obtienen altas puntuaciones de reputación (que es un registro público) y más TAO, lo que es un crédito implícito para sus creadores. Con el tiempo, podemos ver características como pesos de modelo vinculados a NFT o licencias descentralizadas para rastrear mejor la PI, pero actualmente la prioridad ha sido hacer que las redes funcionen e incentiven las contribuciones. Todos están de acuerdo en que verificar la procedencia y los resultados de los modelos es clave para permitir verdaderos mercados de activos de modelos, y la investigación en esta dirección está en curso.

Estructuras de Reparto de Ingresos

Las tres plataformas deben decidir cómo dividir el pastel económico cuando varias partes colaboran para producir un resultado de IA valioso. ¿Quién recibe el pago y cuánto, cuando se utiliza un servicio de IA o cuando se emiten tokens? Cada una tiene un modelo de reparto de ingresos distinto:

  • Bittensor: Como se mencionó en la sección de incentivos, la distribución de ingresos de Bittensor está definida por el protocolo a nivel de bloque: 41 % para los mineros, 41 % para los validadores, 18 % para el propietario de la subred por cada emisión de TAO del bloque. Esto es efectivamente un reparto de ingresos incorporado para el valor generado en cada subred. La parte del propietario de la subred (18 %) actúa como una regalía por el "diseño del modelo/tarea" o por iniciar el ecosistema de esa subred. El hecho de que mineros y validadores obtengan partes iguales asegura que sin validación, los mineros no son recompensados (y viceversa); son simbióticos y cada uno obtiene una porción igual de las recompensas acuñadas. Si consideramos a un usuario externo que paga TAO para consultar un modelo, el whitepaper de Bittensor prevé que ese pago también se divida de manera similar entre el minero que responde y los validadores que ayudaron a verificar la respuesta (la división exacta podría ser determinada por el protocolo o las fuerzas del mercado). Además, los delegadores que hacen stake en mineros/validadores son efectivamente socios; típicicamente, un minero/validador compartirá un porcentaje de su TAO ganado con sus delegadores (esto es configurable, pero a menudo la mayoría va a los delegadores). Así, si un minero ganó 1 TAO de un bloque, eso podría dividirse 80/20 entre sus delegadores y ellos mismos, por ejemplo, según el stake. Esto significa que incluso los no operadores obtienen una parte de los ingresos de la red proporcional a su apoyo. Con la introducción de dTAO, se agregó otra capa de reparto: aquellos que hacen stake en el pool de una subred obtienen tokens alfa, que les dan derecho a parte de las emisiones de esa subred (como el yield farming). En efecto, cualquiera puede tomar una participación en el éxito de una subred particular y recibir una fracción de las recompensas de mineros/validadores al poseer tokens alfa (los tokens alfa se aprecian a medida que la subred atrae más uso y emisiones). En resumen, el reparto de ingresos de Bittensor está fijado por código para los roles principales, y se comparte aún más mediante acuerdos sociales/de staking. Es una división relativamente transparente y basada en reglas: cada bloque, los participantes saben exactamente cómo se asigna el 1 TAO, y por lo tanto conocen sus "ganancias" por contribución. Esta claridad es una de las razones por las que Bittensor a veces se compara con Bitcoin para la IA: una emisión monetaria determinista donde la recompensa de los participantes se establece matemáticamente.

  • Gensyn: El reparto de ingresos en Gensyn es más dinámico e impulsado por el mercado, ya que las tareas tienen un precio individual. Cuando un solicitante crea un trabajo, adjunta una recompensa (digamos X tokens) que está dispuesto a pagar. Un resolutor que completa el trabajo obtiene esa X (menos cualquier tarifa de red). Si un verificador está involucrado, típicamente hay una regla como: si no se detecta fraude, el resolutor se queda con el pago completo; si se detecta fraude, el resolutor es penalizado con slashing —perdiendo parte o la totalidad de su stake— y esa cantidad recortada se le da al verificador como recompensa. Así que los verificadores no ganan de cada tarea, solo cuando atrapan un mal resultado (además de posiblemente una pequeña tarifa base por participar, dependiendo de la implementación). No hay un concepto incorporado de pagar al propietario de un modelo aquí porque se asume que el solicitante es el propietario del modelo o tiene derechos para usarlo. Uno podría imaginar un escenario donde un solicitante está ajustando el modelo preentrenado de otra persona y una porción del pago va al creador original del modelo, pero eso tendría que manejarse fuera del protocolo (por ejemplo, mediante un acuerdo o un contrato inteligente separado que divida el pago del token en consecuencia). El reparto a nivel de protocolo de Gensyn es esencialmente cliente -> resolutor (-> verificador). El modelo de token probablemente incluye alguna asignación para el tesoro o la fundación del protocolo; por ejemplo, un pequeño porcentaje del pago de cada tarea podría ir a una tesorería que podría usarse para financiar el desarrollo o pools de seguros (esto no se indica explícitamente en los documentos disponibles, pero muchos protocolos lo hacen). Además, al principio, Gensyn puede subsidiar a los resolutores a través de la inflación: a los usuarios de la testnet se les prometen recompensas en el TGE, lo que es efectivamente un reparto de ingresos de la distribución inicial de tokens (los primeros resolutores y partidarios obtienen una parte de los tokens por ayudar a arrancar, similar a un airdrop o recompensa de minería). Con el tiempo, a medida que los trabajos reales dominen, las recompensas inflacionarias disminuirían, y los ingresos de los resolutores provendrían principalmente de los pagos de los usuarios. El enfoque de Gensyn se puede resumir como un modelo de ingresos de pago por servicio: la red facilita un pago directo de aquellos que necesitan que se haga un trabajo a aquellos que lo hacen, con los verificadores y posiblemente los stakers de tokens tomando una parte solo cuando desempeñan un papel en la seguridad de ese servicio.

  • Cuckoo: El reparto de ingresos de Cuckoo ha evolucionado. Inicialmente, debido a que no había muchos usuarios finales que pagaran, el reparto de ingresos era esencialmente un reparto de inflación: las asignaciones del 30 % para minería y del 11 % para staking del suministro de tokens significaban que los mineros y stakers compartían los tokens emitidos por el pool de lanzamiento justo de la red. En la práctica, Cuckoo realizaba cosas como pagos diarios de CAI a los mineros proporcionales a las tareas completadas. Esos pagos provenían en gran medida de la asignación de recompensas de minería (que es parte del suministro fijo reservado). Esto es similar a cómo muchas blockchains de Capa 1 distribuyen recompensas de bloque a mineros/validadores; no estaba ligado al uso real por parte de usuarios externos, era más para incentivar la participación y el crecimiento. Sin embargo, como se destaca en su blog de julio de 2025, esto llevó a un uso incentivado por el farming de tokens en lugar de la demanda real. La siguiente etapa para Cuckoo es un verdadero modelo de reparto de ingresos basado en tarifas de servicio. En este modelo, cuando un usuario final usa, digamos, el servicio de generación de imágenes y paga $1 (en términos de cripto), ese valor de $1 en tokens se dividiría quizás así: 0.70 para el minero que hizo el trabajo de GPU, 0.20 para el desarrollador de la aplicación (coordinador) que proporcionó el modelo y la interfaz, y 0.10 para los stakers o la tesorería de la red. (Nota: las proporciones exactas son hipotéticas; Cuckoo no las ha especificado públicamente todavía, pero esto ilustra el concepto). De esta manera, todos los contribuyentes a la prestación del servicio obtienen una parte de los ingresos. Esto es análogo, por ejemplo, a una economía de viajes compartidos pero para la IA: el vehículo (minero de GPU) obtiene la mayoría, el conductor o la plataforma (coordinador que construyó el servicio del modelo) obtiene una parte, y quizás la gobernanza/stakers de la plataforma obtienen una pequeña tarifa. La mención de Cuckoo de "modelos de reparto de ingresos y recompensas de tokens vinculados directamente a métricas de uso" sugiere que si un servicio o nodo en particular maneja mucho volumen, sus operadores y partidarios ganarán más. Se están alejando de los rendimientos planos por simplemente bloquear tokens (que era el caso con su APY de staking inicialmente). En términos concretos: si haces stake en un coordinador que termina impulsando una aplicación de IA muy popular, podrías ganar una porción de las tarifas de esa aplicación, un verdadero escenario de staking como inversión en utilidad, en lugar de hacer stake solo por la inflación. Esto alinea los incentivos de todos para atraer a usuarios reales que pagan por los servicios de IA, lo que a su vez devuelve valor a los poseedores de tokens. Vale la pena señalar que la cadena de Cuckoo también tenía tarifas por transacciones (gas), por lo que los mineros que producían bloques (inicialmente los mineros de GPU también contribuían a la producción de bloques en la cadena de Cuckoo) también obtenían tarifas de gas. Con el cierre de la cadena y la migración a un rollup, las tarifas de gas probablemente serán mínimas (o en Ethereum), por lo que los ingresos principales se convierten en las propias tarifas del servicio de IA. En resumen, Cuckoo está en transición de un modelo impulsado por subsidios (la red paga a los participantes de su pool de tokens) a un modelo impulsado por la demanda (los participantes ganan de los pagos reales de los usuarios). El token seguirá desempeñando un papel en el staking y la gobernanza, pero las ganancias diarias de los mineros y los desarrolladores de aplicaciones deberían provenir cada vez más de los usuarios que compran servicios de IA. Este modelo es más sostenible a largo plazo y se asemeja mucho al reparto de ingresos de SaaS de la Web2, pero implementado a través de contratos inteligentes y tokens para mayor transparencia.

Superficies de Ataque y Vulnerabilidades

La descentralización de la IA introduce varios desafíos de incentivos y seguridad. Ahora analizamos los vectores de ataque clave —ataques Sybil, colusión, parasitismo (freeloading) y envenenamiento de datos/modelos— y cómo cada plataforma los mitiga o permanece vulnerable a ellos:

  • Ataques Sybil (identidades falsas): En una red abierta, un atacante podría crear muchas identidades (nodos) para obtener recompensas o influencia desproporcionadas.

  • Bittensor: La resistencia a los ataques Sybil se proporciona principalmente por el costo de entrada. Para registrar un nuevo minero o validador en Bittensor, uno debe gastar o hacer stake de TAO; esto podría ser una quema o un requisito de fianza. Esto significa que crear N nodos falsos incurre en N veces el costo, lo que hace que los grandes enjambres Sybil sean caros. Además, el consenso de Bittensor vincula la influencia al stake y al rendimiento; un Sybil sin stake o con bajo rendimiento gana poco. Un atacante tendría que invertir mucho y también hacer que sus nodos Sybil contribuyan con trabajo útil para obtener una recompensa significativa (lo cual no es una estrategia Sybil típica). Dicho esto, si un atacante tiene mucho capital, podría adquirir la mayoría de los TAO y registrar muchos validadores o mineros, efectivamente un Sybil por riqueza. Esto se superpone con el escenario de ataque del 51 %: si una sola entidad controla >50 % del TAO en stake en una subred, pueden influir fuertemente en el consenso. La introducción de dTAO por parte de Bittensor ayuda un poco aquí: distribuye la influencia entre las subredes y requiere el apoyo de la comunidad en el staking para que las subredes prosperen, lo que dificulta que una entidad controle todo. Aún así, los ataques Sybil por parte de un adversario bien financiado siguen siendo una preocupación; el análisis de Arxiv señala explícitamente que el stake está bastante concentrado ahora, por lo que la barrera para un ataque mayoritario no es tan alta como se desearía. Para mitigar esto, se han sugerido propuestas como límites de stake por billetera (por ejemplo, limitar el stake efectivo en el percentil 88 para evitar que una billetera domine). En resumen, Bittensor se basa en la identidad ponderada por stake (no se pueden generar identidades baratas sin un stake proporcional) para manejar los Sybils; es razonablemente efectivo excepto bajo un atacante muy ingenioso.

  • Gensyn: Los ataques Sybil en Gensyn se manifestarían como un atacante creando muchos nodos de resolutor o verificador para manipular el sistema. La defensa de Gensyn es puramente económica y criptográfica: las identidades en sí no importan, pero hacer el trabajo o depositar una garantía sí. Si un atacante crea 100 nodos de resolutor falsos pero no tienen trabajos ni stake, no logran nada. Para ganar tareas, un nodo Sybil tendría que pujar competitivamente y tener el hardware para hacer el trabajo. Si pujan por debajo sin capacidad, fallarán y perderán el stake. De manera similar, un atacante podría crear muchas identidades de verificador con la esperanza de ser elegido para verificar (si el protocolo selecciona verificadores al azar). Pero si hay demasiados, la red o el solicitante del trabajo podrían limitar el número de verificadores activos. Además, los verificadores necesitan potencialmente realizar la computación para verificarla, lo cual es costoso; tener muchos verificadores falsos no ayuda a menos que realmente puedas verificar los resultados. Un ángulo Sybil más pertinente en Gensyn es si un atacante intenta llenar la red con trabajos o respuestas falsas para hacer perder el tiempo a otros. Eso se mitiga requiriendo también un depósito de los solicitantes (un solicitante malicioso que publica trabajos falsos pierde su pago o depósito). En general, el uso de stakes/fianzas requeridas y la selección aleatoria para la verificación por parte de Gensyn significa que un atacante gana poco al tener múltiples identidades a menos que también traiga recursos proporcionales. Se convierte en un ataque más costoso en lugar de uno barato. El modelo de seguridad optimista asume al menos un verificador honesto; los Sybils tendrían que abrumar y ser todos los verificadores para hacer trampa consistentemente, lo que nuevamente nos lleva a poseer la mayoría del stake o del poder de cómputo. La resistencia Sybil de Gensyn es, por lo tanto, comparable a la de un rollup optimista: mientras haya un actor honesto, los Sybils no pueden causar un daño sistémico fácilmente.

  • Cuckoo: La prevención de ataques Sybil en Cuckoo se basa en el staking y la investigación de la comunidad. Cada rol en Cuckoo (minero, coordinador, incluso usuario en algunos casos) requiere hacer stake de $CAI. Esto eleva inmediatamente el costo de las identidades Sybil: un atacante que crea 100 mineros falsos necesitaría adquirir y bloquear stake para cada uno. Además, el diseño de Cuckoo tiene un elemento humano/comunitario: los nuevos nodos necesitan ganar reputación a través de la votación en la cadena. Es poco probable que un ejército Sybil de nodos nuevos sin reputación reciba muchas tareas o la confianza de los usuarios. Los coordinadores en particular tienen que atraer usuarios; un coordinador falso sin historial no obtendría uso. Para los mineros, los coordinadores pueden ver sus estadísticas de rendimiento (tareas exitosas, etc.) en Cuckoo Scan y preferirán mineros confiables. Cuckoo también tenía un número relativamente pequeño de mineros (40 GPU en un momento en la beta), por lo que cualquier afluencia extraña de muchos nodos sería notable. El punto débil potencial es si el atacante también manipula el sistema de reputación, por ejemplo, haciendo un gran stake de CAI en sus nodos Sybil para que parezcan reputables o creando cuentas de "usuario" falsas para votarse a sí mismos. Esto es teóricamente posible, pero como todo está curado por tokens, cuesta tokens hacerlo (esencialmente estarías votando con tu propio stake en tus propios nodos). El equipo de Cuckoo también puede ajustar los parámetros de staking y recompensa si se observa un comportamiento Sybil (especialmente ahora que se está convirtiendo en un servicio de rollup más centralizado; pueden pausar o aplicar slashing a los malos actores). En resumen, los Sybils se mantienen a raya al requerir tener algo en juego (stake) y necesitar la aprobación de la comunidad. Nadie puede simplemente entrar con cientos de GPU falsas y cosechar recompensas sin una inversión significativa que los participantes honestos podrían gastar mejor en hardware real y stake.

  • Colusión: Aquí consideramos a múltiples participantes que se confabulan para manipular el sistema, por ejemplo, validadores y mineros que coluden en Bittensor, o resolutores y verificadores que coluden en Gensyn, etc.

  • Bittensor: La colusión ha sido identificada como una preocupación real. En el diseño original, un puñado de validadores podía coludir para siempre votar a favor de ciertos mineros o de ellos mismos, sesgando injustamente la distribución de recompensas (esto se observó como una concentración de poder en la subred raíz). El consenso Yuma proporciona cierta defensa: al tomar una mediana de las puntuaciones de los validadores y penalizar a los que se desvían, evita que un pequeño grupo en colusión impulse dramáticamente a un objetivo a menos que sean la mayoría. En otras palabras, si 3 de 10 validadores coluden para dar a un minero una puntuación súper alta pero los otros 7 no lo hacen, las puntuaciones atípicas de los coludidos se recortan y la recompensa del minero se basa en la puntuación mediana (por lo que la colusión no ayuda significativamente). Sin embargo, si los coludidos forman >50 % de los validadores (o >50 % del stake entre los validadores), efectivamente son el consenso: pueden acordar puntuaciones altas falsas y la mediana reflejará su opinión. Este es el clásico escenario de ataque del 51 %. Desafortunadamente, el estudio de Arxiv encontró algunas subredes de Bittensor donde una coalición de solo el 1-2 % de los participantes (en términos de número) controlaba la mayoría del stake, debido a la fuerte concentración de tokens. Esto significa que la colusión de unos pocos grandes poseedores era una amenaza creíble. La mitigación que Bittensor está persiguiendo a través de dTAO es democratizar la influencia: al permitir que cualquier poseedor de TAO dirija el stake a las subredes, diluye el poder de los grupos cerrados de validadores. Además, propuestas como el staking cóncavo (rendimientos decrecientes para un stake desproporcionado) y los límites de stake tienen como objetivo romper la capacidad de una entidad en colusión para acumular demasiado poder de voto. La suposición de seguridad de Bittensor ahora es similar a la prueba de participación: ninguna entidad única (o cartel) controla >50 % del stake activo. Mientras eso se mantenga, la colusión es limitada porque los validadores honestos anularán las malas puntuaciones y los propietarios de subredes en colusión no pueden aumentar arbitrariamente sus propias recompensas. Finalmente, sobre la colusión entre propietarios de subredes y validadores (por ejemplo, un propietario de subred sobornando a los validadores para que califiquen altamente a los mineros de su subred), dTAO elimina el control directo de los validadores, reemplazándolo con decisiones de los poseedores de tokens. Es más difícil coludir con "el mercado" a menos que compres todo el suministro de tokens, en cuyo caso no es realmente colusión, es una toma de control. Así que la principal técnica anti-colusión de Bittensor es el consenso algorítmico (recorte de mediana) y la amplia distribución de tokens.

  • Gensyn: La colusión en Gensyn probablemente involucraría a un resolutor y un verificador (o múltiples verificadores) coludiendo para engañar al sistema. Por ejemplo, un resolutor podría producir un resultado falso y un verificador en colusión podría intencionalmente no desafiarlo (o incluso atestiguar que es correcto si el protocolo pidiera a los verificadores que lo aprobaran). Para mitigar esto, el modelo de seguridad de Gensyn requiere al menos un verificador honesto. Si todos los verificadores están en colusión con el resolutor, entonces un mal resultado no es desafiado. Gensyn aborda esto fomentando muchos verificadores independientes (cualquiera puede verificar) y por la teoría de juegos de que un verificador podría ganar una gran recompensa rompiendo la colusión y desafiando (porque obtendrían el stake del resolutor). Esencialmente, incluso si hay un grupo que acuerda coludir, cada miembro tiene un incentivo para desertar y reclamar la recompensa por sí mismo; esta es una configuración clásica del Dilema del Prisionero. La esperanza es que esto mantenga los grupos de colusión pequeños o ineficaces. Otra colusión potencial es entre múltiples resolutores para subir los precios o monopolizar las tareas. Sin embargo, dado que los desarrolladores pueden elegir dónde publicar las tareas (y las tareas no son unidades idénticas que se puedan monopolizar fácilmente), la colusión de resolutores en el precio sería difícil de coordinar globalmente; cualquier resolutor que no esté en colusión podría pujar por debajo para ganar el trabajo. La dinámica del mercado abierto contrarresta la colusión de precios, asumiendo al menos algunos participantes competitivos. Un ángulo más: colusión de verificadores para perjudicar a los resolutores, por ejemplo, verificadores acusando falsamente a resolutores honestos para robar su stake. La prueba de fraude de Gensyn es binaria y en la cadena; una acusación falsa fallaría cuando la re-computación en la cadena no encuentre ningún error, y presumiblemente el verificador malicioso perdería algo (quizás un depósito o reputación). Así que una colusión de verificadores tratando de sabotear a los resolutores sería atrapada por el proceso de verificación del protocolo. En resumen, la arquitectura de Gensyn es robusta siempre que al menos una parte en cualquier conjunto en colusión tenga un incentivo para ser honesta, una propiedad de la verificación optimista similar a requerir un minero honesto en Bitcoin para eventualmente exponer un fraude. La colusión es teóricamente posible si un atacante pudiera controlar a todos los verificadores y resolutores en una tarea (como la mayoría de la red), pero entonces podrían simplemente hacer trampa sin necesidad de colusión per se. Los incentivos criptoeconómicos están dispuestos para hacer que mantener la colusión sea irracional.

  • Cuckoo: La colusión en Cuckoo podría ocurrir de varias maneras:

  1. Un coordinador coludiendo con mineros: por ejemplo, un coordinador podría asignar siempre tareas a un conjunto de mineros amigos y repartir las recompensas, ignorando a otros mineros honestos. Dado que los coordinadores tienen discreción en la programación de tareas, esto puede suceder. Sin embargo, si los mineros amigos son de baja calidad, los usuarios finales podrían notar un servicio lento o deficiente y marcharse, por lo que el coordinador está desincentivado de un favoritismo puro que perjudique la calidad. Si la colusión es para manipular las recompensas (digamos, enviando tareas falsas para dar tokens a los mineros), eso se detectaría en la cadena (muchas tareas con quizás entradas idénticas o sin un usuario real) y puede ser penalizado. La transparencia en la cadena de Cuckoo significa que cualquier patrón inusual podría ser señalado por la comunidad o el equipo central. Además, debido a que todos los participantes hacen stake, un anillo de coordinador-minero en colusión se arriesga a perder su stake si son atrapados abusando del sistema (por ejemplo, si la gobernanza decide aplicarles slashing por fraude).
  2. Mineros coludiendo entre ellos: podrían compartir información o formar un cartel para, digamos, votarse todos entre sí en reputación o todos negarse a servir a un coordinador en particular para extraer tarifas más altas. Estos escenarios son menos probables: la votación de reputación la realizan los stakers (incluidos los usuarios), no los propios mineros votando entre sí. Y negarse a prestar servicio solo llevaría a los coordinadores a encontrar otros mineros o a dar la alarma. Dada la escala relativamente pequeña actual, cualquier colusión sería difícil de ocultar.
  3. Colusión para manipular la gobernanza: grandes poseedores de CAI podrían coludir para aprobar propuestas a su favor (como establecer una tarifa exorbitante o redirigir la tesorería). Este es un riesgo en cualquier gobernanza de tokens. La mejor mitigación es distribuir ampliamente el token (el lanzamiento justo de Cuckoo dio el 51 % a la comunidad) y tener una supervisión comunitaria activa. Además, dado que Cuckoo se alejó de la L1, la gobernanza inmediata en la cadena podría ser limitada hasta que se reasienten en una nueva cadena; el equipo probablemente retiene un control multisig en el ínterin, lo que irónicamente previene la colusión de extraños maliciosos a expensas de ser centralizado temporalmente. En general, Cuckoo se apoya en la transparencia y el staking para manejar la colusión. Hay un elemento de confianza en que los coordinadores se comporten porque quieren atraer usuarios en un entorno competitivo. Si la colusión conduce a un servicio más deficiente o a una manipulación obvia de las recompensas, las partes interesadas pueden votar en contra o dejar de hacer stake en los malos actores, y la red puede aplicarles slashing o bloquearlos. La naturaleza bastante abierta (cualquiera puede convertirse en coordinador o minero si hace stake) significa que la colusión requeriría un gran esfuerzo coordinado que sería evidente. No está tan matemáticamente prevenida como en Bittensor o Gensyn, pero la combinación de stake económico y gobernanza comunitaria proporciona un control.
  • Freeloading (Problemas de parasitismo): Esto se refiere a los participantes que intentan obtener recompensas sin contribuir con un valor equivalente, por ejemplo, un validador que en realidad no evalúa pero aún así gana, o un minero que copia las respuestas de otros en lugar de computar, o usuarios que farmean recompensas sin proporcionar una entrada útil.

  • Bittensor: Un problema conocido de parasitismo en Bittensor es la "copia de pesos" por parte de validadores perezosos. Un validador podría simplemente copiar la opinión de la mayoría (o las puntuaciones de otro validador) en lugar de evaluar independientemente a los mineros. Al hacerlo, evitan el costo de ejecutar consultas de IA pero aún así obtienen recompensas si sus puntuaciones enviadas parecen alineadas con el consenso. Bittensor combate esto midiendo la alineación con el consenso y la contribución informativa de cada validador. Si un validador siempre copia a otros, puede que se alinee bien (por lo que no es penalizado fuertemente), pero no agrega ningún valor único. Los desarrolladores del protocolo han discutido dar mayores recompensas a los validadores que proporcionan evaluaciones precisas pero no puramente redundantes. Técnicas como la infusión de ruido (dar deliberadamente a los validadores consultas ligeramente diferentes) podrían obligarlos a trabajar realmente en lugar de copiar, aunque no está claro si eso está implementado. El artículo de Arxiv sugiere emisiones ponderadas por rendimiento y métodos de puntuación compuesta para vincular mejor el esfuerzo del validador con la recompensa. En cuanto a los mineros, un posible comportamiento de parasitismo sería si un minero consulta a otros mineros y retransmite la respuesta (una forma de plagio). El diseño de Bittensor (con consultas descentralizadas) podría permitir que el modelo de un minero llame a otros a través de su propia dendrita. Si un minero simplemente retransmite la respuesta de otro, un buen validador podría detectarlo porque la respuesta podría no coincidir consistentemente con las capacidades del modelo declaradas por el minero. Es difícil de detectar algorítmicamente, pero un minero que nunca computa resultados originales debería eventualmente obtener una puntuación baja en algunas consultas y perder reputación. Otro escenario de parasitismo eran los delegadores que ganaban recompensas sin hacer trabajo de IA. Eso es intencional (para involucrar a los poseedores de tokens), por lo que no es un ataque, pero sí significa que algunas emisiones de tokens van a personas que solo hicieron stake. Bittensor lo justifica como una alineación de incentivos, no como recompensas desperdiciadas. En resumen, Bittensor reconoce el problema de los validadores parásitos y está ajustando los incentivos (como dar puntuaciones de confianza de validador que impulsan a aquellos que no se desvían ni copian). Su solución es esencialmente recompensar el esfuerzo y la corrección de manera más explícita, para que no hacer nada o copiar ciegamente produzca menos TAO con el tiempo.

  • Gensyn: En Gensyn, a los parásitos les resultaría difícil ganar, porque uno debe proporcionar cómputo o atrapar a alguien haciendo trampa para obtener tokens. Un resolutor no puede "fingir" el trabajo; tiene que presentar una prueba válida o arriesgarse al slashing. No hay mecanismo para recibir un pago sin hacer la tarea. Un verificador podría teóricamente permanecer inactivo y esperar que otros atrapen fraudes, pero entonces no ganaría nada (porque solo el que presenta la prueba de fraude obtiene la recompensa). Si demasiados verificadores intentan parasitar (no re-computando realmente las tareas), entonces un resolutor fraudulento podría pasar desapercibido porque nadie está verificando. El diseño de incentivos de Gensyn aborda esto con la recompensa jackpot: solo se necesita un verificador activo para atrapar a un tramposo y obtener un gran pago, por lo que es racional que al menos uno siempre haga el trabajo. Otros que no trabajan no dañan la red, excepto por ser inútiles; tampoco obtienen recompensa. Así que el sistema filtra naturalmente a los parásitos: solo aquellos verificadores que realmente verifican obtendrán ganancias a largo plazo (otros gastan recursos en nodos para nada o muy raramente obtienen una recompensa por casualidad). El protocolo también podría aleatorizar qué verificador tiene la oportunidad de desafiar para desalentar que todos los verificadores asuman que "alguien más lo hará". Dado que las tareas se pagan individualmente, no hay un análogo de "recompensas de staking sin trabajo" aparte de los incentivos de la testnet que son temporales. Un área a observar es la optimización de múltiples tareas: un resolutor podría intentar reutilizar el trabajo entre tareas o subcontratarlo en secreto a alguien más barato (como usar una nube centralizada), pero eso no es realmente un parasitismo dañino; si entregan resultados correctos a tiempo, no importa cómo lo hicieron. Eso es más como arbitraje que un ataque. En resumen, el diseño del mecanismo de Gensyn deja poco espacio para que los parásitos ganen, porque cada token distribuido corresponde a un trabajo hecho o a un tramposo castigado.

  • Cuckoo: La fase inicial de Cuckoo creó inadvertidamente un problema de parasitismo: el airdrop y el staking de alto rendimiento atrajeron a usuarios que solo estaban allí para farmear tokens. Estos usuarios ciclaban tokens a través de faucets o manipulaban las tareas del airdrop (por ejemplo, usando continuamente prompts de prueba gratuitos o creando muchas cuentas para reclamar recompensas) sin contribuir al valor a largo plazo de la red. Cuckoo reconoció esto como un problema: esencialmente, la gente estaba "usando" la red no por el resultado de la IA, sino para obtener una ganancia especulativa. La decisión de terminar la cadena L1 y reenfocarse fue en parte para deshacerse de estas desalineaciones de incentivos. Al vincular las futuras recompensas de tokens al uso real (es decir, ganas porque el servicio está siendo utilizado por clientes que pagan), el atractivo del parasitismo disminuye. También existe un escenario de parasitismo por parte de los mineros: un minero podría unirse, recibir tareas y de alguna manera no realizarlas pero aún así reclamar la recompensa. Sin embargo, el coordinador está verificando los resultados; si un minero no devuelve ninguna salida o una salida incorrecta, el coordinador no lo contará como una tarea completada, por lo que el minero no recibiría pago. Los mineros también podrían intentar seleccionar las tareas fáciles y abandonar las difíciles (por ejemplo, si algunos prompts son más lentos, un minero podría desconectarse para evitarlos). Esto podría ser un problema, pero los coordinadores pueden notar la fiabilidad de un minero. Si un minero se desconecta con frecuencia, el coordinador puede dejar de asignarle tareas o aplicar slashing a su stake (si existe tal mecanismo o simplemente no recompensarlo). El parasitismo de los usuarios: dado que muchos servicios de IA tienen pruebas gratuitas, un usuario podría enviar spam de solicitudes para obtener resultados sin pagar (si hay un modelo subsidiado). Eso no es tanto un problema a nivel de protocolo como a nivel de servicio; cada coordinador puede decidir cómo manejar el uso gratuito (por ejemplo, requiriendo un pequeño pago o limitando la velocidad). Debido a que Cuckoo inicialmente regaló cosas (como generaciones de imágenes de IA gratuitas para atraer usuarios), algunos se aprovecharon, pero eso era parte del marketing de crecimiento esperado. A medida que esas promociones terminen, los usuarios tendrán que pagar, por lo que no habrá almuerzo gratis que explotar. En general, la nueva estrategia de Cuckoo de mapear la distribución de tokens a la utilidad real está explícitamente dirigida a eliminar el problema del parasitismo de "minar tokens por hacer bucles sin sentido".

  • Envenenamiento de Datos o Modelos: Esto se refiere a la introducción maliciosa de datos o comportamientos incorrectos de tal manera que los modelos de IA se degradan o los resultados se manipulan, así como problemas de contenido dañino o sesgado que se contribuye.

  • Bittensor: El envenenamiento de datos en Bittensor significaría que un minero da intencionalmente respuestas incorrectas o dañinas, o que los validadores evalúan a propósito las buenas respuestas como malas. Si un minero produce basura o contenido malicioso de manera consistente, los validadores le darán puntuaciones bajas, y ese minero ganará poco y eventualmente se retirará; el incentivo económico es proporcionar calidad, por lo que "envenenar" a otros no produce ningún beneficio para el atacante (a menos que su objetivo sea puramente el sabotaje a su propio costo). ¿Podría un minero malicioso envenenar a otros? En Bittensor, los mineros no se entrenan directamente entre sí (al menos no por diseño; no hay un modelo global que se esté actualizando que pueda ser envenenado). El modelo de cada minero es independiente. Sí aprenden en el sentido de que un minero podría tomar muestras interesantes de otros para ajustarse, pero eso es completamente opcional y depende de cada uno. Si un actor malicioso enviara spam de respuestas sin sentido, los validadores honestos lo filtrarían (le darían una puntuación baja), por lo que no influiría significativamente en el proceso de entrenamiento de ningún minero honesto (además, un minero probablemente usaría el conocimiento de sus pares con alta puntuación, no de los de baja puntuación). Así que el envenenamiento de datos clásico (inyectar datos de entrenamiento malos para corromper un modelo) es mínimo en la configuración actual de Bittensor. El riesgo más relevante es la manipulación de la respuesta del modelo: por ejemplo, un minero que produce contenido sutilmente sesgado o peligroso que no es obvio para los validadores. Sin embargo, dado que los validadores también son diseñados por humanos o al menos agentes algorítmicos, es probable que se detecte la toxicidad o el error flagrante (algunas subredes incluso podrían tener validadores de IA que verifiquen contenido inseguro). Un escenario del peor de los casos es si un atacante de alguna manera tuviera la mayoría de los validadores y mineros coludiendo para impulsar una cierta salida incorrecta como "correcta"; entonces podrían sesgar el consenso de la red sobre las respuestas (como todos los validadores en colusión votando a favor de una respuesta maliciosa). Pero para que un usuario externo se vea perjudicado por eso, tendría que consultar realmente la red y confiar en la salida. Bittensor todavía está en una fase en la que está construyendo capacidad, no siendo ampliamente utilizado para consultas críticas por parte de los usuarios finales. Para cuando lo sea, se espera que tenga filtrado de contenido y diversidad de validadores para mitigar tales riesgos. Por el lado del validador, un validador malicioso podría alimentar evaluaciones envenenadas, por ejemplo, votando consistentemente en contra de un cierto minero honesto para eliminar la competencia. Con suficiente stake, podrían tener éxito en expulsar a ese minero (si las recompensas del minero caen tan bajo que se van). Este es un ataque al mecanismo de incentivos. Nuevamente, si no son mayoría, el recorte de la mediana frustrará a un validador atípico. Si son mayoría, se fusiona con el escenario de colusión/51 %: cualquier mayoría puede reescribir las reglas. La solución vuelve a la descentralización: evitar que una sola entidad domine. En resumen, el diseño de Bittensor inherentemente penaliza las contribuciones de datos/modelos envenenados a través de su sistema de puntuación: las malas contribuciones obtienen un peso bajo y, por lo tanto, una baja recompensa. No hay un repositorio de modelos permanente que envenenar; todo es dinámico y se evalúa continuamente. Esto proporciona resiliencia: la red puede "olvidar" o ignorar gradualmente a los malos actores a medida que sus contribuciones son filtradas por los validadores.

  • Gensyn: Si un resolutor quisiera envenenar un modelo que se está entrenando (como introducir una puerta trasera o un sesgo durante el entrenamiento), podría intentar hacerlo de forma encubierta. El protocolo de Gensyn verificaría que el entrenamiento procedió de acuerdo con el algoritmo especificado (pasos de descenso de gradiente estocástico, etc.), pero no necesariamente detectaría si el resolutor introdujo un sutil activador de puerta trasera que no aparece en las métricas de validación normales. Este es un problema más insidioso: no es un fallo de la computación, es una manipulación dentro de los grados de libertad permitidos del entrenamiento (como ajustar los pesos hacia una frase activadora). Detectar eso es un problema de investigación activo en seguridad de ML. Gensyn no tiene un mecanismo especial para el envenenamiento de modelos más allá del hecho de que el solicitante podría evaluar el modelo final en un conjunto de prueba de su elección. Un solicitante inteligente siempre debería probar el modelo devuelto; si encuentra que falla en algunas entradas o tiene un comportamiento extraño, puede disputar el resultado o negarse a pagar. Quizás el protocolo podría permitir que un solicitante especifique ciertos criterios de aceptación (como "el modelo debe alcanzar al menos una precisión X en este conjunto de prueba secreto") y si el resultado del resolutor falla, el resolutor no recibe el pago completo. Esto disuadiría el envenenamiento porque el atacante no cumpliría los criterios de evaluación. Sin embargo, si el veneno no afecta la precisión en las pruebas normales, podría pasar desapercibido. Los verificadores en Gensyn solo comprueban la integridad de la computación, no la calidad del modelo, por lo que no detectarían un sobreajuste intencional o troyanos siempre que los registros de entrenamiento parezcan válidos. Por lo tanto, esto sigue siendo un problema de confianza a nivel de tarea: el solicitante tiene que confiar en que el resolutor no envenenará el modelo o usar métodos como el ensamblaje de múltiples resultados de entrenamiento de diferentes resolutores para diluir la influencia de un solo resolutor. Otro ángulo es el envenenamiento de datos: si el solicitante proporciona datos de entrenamiento, un resolutor malicioso podría ignorar esos datos y entrenar con otra cosa o agregar datos basura. Pero eso probablemente reduciría la precisión, lo que el solicitante notaría en el rendimiento del modelo de salida. El resolutor entonces no recibiría el pago completo (ya que presumiblemente quieren cumplir un objetivo de rendimiento). Así que el envenenamiento que degrada el rendimiento es contraproducente para la recompensa del resolutor. Solo un veneno que es neutral en rendimiento pero malicioso (una puerta trasera) es un peligro real, y eso está fuera del alcance de la verificación típica de blockchain; es un desafío de seguridad del aprendizaje automático. La mejor mitigación de Gensyn es probablemente social: usar modelos de reputación conocida, tener múltiples ejecuciones de entrenamiento, usar herramientas de código abierto. En tareas de inferencia (si Gensyn también se usa para trabajos de inferencia), un resolutor en colusión podría devolver salidas incorrectas que sesguen una cierta respuesta. Pero los verificadores detectarían las salidas incorrectas si ejecutan el mismo modelo, por lo que eso es menos un envenenamiento y más simplemente hacer trampa, lo que las pruebas de fraude abordan. En resumen, Gensyn asegura el proceso, no la intención. Asegura que el entrenamiento/inferencia se realizó correctamente, pero no que el resultado sea bueno o libre de maldades ocultas. Eso sigue siendo un problema abierto, y el whitepaper de Gensyn probablemente no lo resuelve por completo todavía (pocos lo hacen).

  • Cuckoo: Dado que Cuckoo actualmente se enfoca en la inferencia (servir modelos existentes), el riesgo de envenenamiento de datos/modelos se limita relativamente a la manipulación de la salida o al envenenamiento de contenido. Un minero malicioso podría intentar manipular el modelo que se le da para ejecutar; por ejemplo, si se le proporciona un punto de control de Stable Diffusion, podría cambiarlo por un modelo diferente que quizás inserte alguna marca de agua sutil o publicidad en cada imagen. Sin embargo, el coordinador (que es el propietario del modelo) típicamente envía tareas con una expectativa del formato de salida; si un minero devuelve salidas fuera de especificación de manera consistente, el coordinador marcará y prohibirá a ese minero. Además, los mineros no pueden modificar fácilmente un modelo sin afectar notablemente sus salidas. Otro escenario es si Cuckoo introduce modelos entrenados por la comunidad: entonces los mineros o proveedores de datos podrían intentar envenenar los datos de entrenamiento (por ejemplo, introduciendo muchas etiquetas incorrectas o texto sesgado). Cuckoo necesitaría implementar la validación de datos de crowdsourcing o la ponderación de los contribuyentes. Esto aún no es una característica, pero el interés del equipo en la IA personalizada (como su mención de un entrenador de vida de IA o aplicaciones de aprendizaje) significa que eventualmente podrían manejar datos de entrenamiento proporcionados por el usuario, lo que requerirá verificaciones cuidadosas. En cuanto a la seguridad del contenido, dado que los mineros de Cuckoo realizan inferencias, uno podría preocuparse de que produzcan contenido dañino incluso si el modelo normalmente no lo haría. Pero los mineros no tienen un incentivo para alterar las salidas arbitrariamente; se les paga por la computación correcta, no por la creatividad. En todo caso, un minero malicioso podría saltarse la computación completa para ahorrar tiempo (por ejemplo, devolver una imagen borrosa o una respuesta genérica). El coordinador o el usuario verían eso y calificarían negativamente a ese minero (y probablemente no pagarían por esa tarea). La privacidad es otra faceta: un minero malicioso podría filtrar o registrar datos del usuario (como si un usuario ingresara texto o imágenes sensibles). Esto no es envenenamiento, pero es un ataque a la confidencialidad. La postura de privacidad de Cuckoo es que está explorando métodos de preservación de la privacidad (la mención de una VPN que preserva la privacidad en el ecosistema sugiere un enfoque futuro). Podrían incorporar técnicas como enclaves seguros o inferencia dividida para mantener los datos privados de los mineros. Aún no está implementado, pero es una consideración conocida. Finalmente, el blog de Cuckoo enfatiza la verificación efectiva de los resultados del modelo y la garantía de una operación segura del modelo descentralizado como clave para hacer viable la tokenización de modelos. Esto indica que son conscientes de que para descentralizar verdaderamente la IA, uno debe protegerse contra cosas como salidas envenenadas o modelos que funcionan mal. Posiblemente, tienen la intención de usar una combinación de incentivos criptoeconómicos (slashing de stake para malos actores) y sistemas de calificación de usuarios (los usuarios pueden marcar salidas incorrectas, y esos mineros pierden reputación). El sistema de reputación puede ayudar aquí: si un minero devuelve incluso un resultado obviamente malicioso o incorrecto, los usuarios/coordinadores pueden votarlos negativamente, afectando fuertemente su capacidad de ganancia futura. Sabiendo esto, los mineros están incentivados a ser consistentemente correctos y no introducir ningún veneno. En esencia, Cuckoo se basa en la confianza pero verifica: es más tradicional en el sentido de que si alguien se comporta mal, lo identificas y lo eliminas (con la pérdida de stake como castigo). Todavía no tiene defensas especializadas para el envenenamiento sutil de modelos, pero la estructura de tener propietarios de aplicaciones específicos (coordinadores) a cargo agrega una capa de supervisión; esos propietarios estarán motivados para asegurarse de que nada comprometa la integridad de su modelo, ya que sus propios ingresos y reputación dependen de ello.

En conclusión, si bien las redes de IA descentralizadas introducen nuevas superficies de ataque, también despliegan una mezcla de defensas criptográficas, de teoría de juegos y de gobernanza comunitaria: La resistencia Sybil se maneja en gran medida requiriendo una participación económica para la participación. La resistencia a la colusión proviene de la alineación de incentivos (el comportamiento honesto es más rentable) y mecanismos de consenso que limitan el impacto de pequeños grupos en colusión. La prevención del parasitismo (freerider) se logra vinculando estrechamente las recompensas con el trabajo útil real y penalizando o eliminando a aquellos que no contribuyen en nada. El envenenamiento y ataques relacionados siguen siendo desafiantes, pero los sistemas mitigan los casos flagrantes a través de la evaluación continua y la capacidad de aplicar slashing o expulsar a los actores maliciosos. Estas plataformas están investigando e iterando activamente en estos diseños, como lo demuestran los continuos ajustes de Bittensor a Yuma y dTAO, y el cambio de Cuckoo en la economía de sus tokens, para garantizar un ecosistema de IA descentralizado, seguro y autosostenible.

Evaluación Comparativa

Para resaltar las diferencias y similitudes de Bittensor, Gensyn y Cuckoo AI, la siguiente tabla proporciona una comparación lado a lado a través de dimensiones clave:

DimensiónBittensor (TAO)GensynCuckoo AI (CAI)
Pila TecnológicaL1 personalizada (cadena Subtensor basada en Substrate) con más de 93 subredes de IA especializadas. Compatible con EVM (después de una actualización reciente) en su propia cadena.Rollup basado en Ethereum (originalmente se planeó una L1, ahora es un rollup de ETH). Cómputo fuera de la cadena con verificación en la cadena.Lanzada como una cadena de Capa 2 de Arbitrum Orbit (rollup EVM). Plataforma full-stack (cadena propia + cómputo + UI de aplicación). Migrando de una L1 personalizada a la seguridad compartida de Ethereum (rollup/AVS).
Enfoque PrincipalRed de IA descentralizada de modelos ("internet neuronal"). Los nodos contribuyen a la inferencia y entrenamiento de modelos colectivos en diversas tareas (LLM, visión, etc.).Mercado de cómputo descentralizado para ML. Énfasis en el entrenamiento de modelos e inferencia fuera de la cadena por GPUs globales, verificando el trabajo a través de la blockchain.Plataforma de servicios de IA descentralizada. Enfoque en el servicio/inferencia de modelos (por ejemplo, arte generativo, API de LLM) utilizando mineros de GPU distribuidos. Integra aplicaciones de usuario final con un mercado de GPU backend.
Roles ClavePropietario de Subred: define la tarea y la validación en una subred (gana el 18 % de las recompensas).
Mineros: ejecutan modelos de IA (inferencia/entrenamiento), proporcionan respuestas.
Validadores: plantean consultas y califican los resultados de los mineros (curan la calidad).
Delegadores: hacen stake de TAO en mineros/validadores para amplificar y ganar una parte.
Solicitante (Desarrollador): publica un trabajo de ML (con modelo/datos) y el pago.
Resolutor: computa la tarea en su hardware, envía el resultado.
Verificador (Vigilante): comprueba el resultado del resolutor; puede desafiar mediante una prueba de fraude si es incorrecto.
(No hay un rol de "propietario" distinto ya que el solicitante proporciona el modelo; los roles de gobernanza son a través de los poseedores de tokens).
Constructor de Aplicaciones de IA (Coordinador): despliega un servicio de modelo de IA, hace stake de CAI, gestiona tareas para los mineros.
Minero (Proveedor de GPU/CPU): hace stake de CAI, realiza tareas de inferencia asignadas, devuelve resultados.
Usuario Final: utiliza aplicaciones de IA (paga en cripto o contribuye con recursos).
Staker (Delegador): hace stake en coordinadores/mineros, vota en la gobernanza, gana una parte de las recompensas.
Consenso y VerificaciónConsenso Yuma: "prueba de inteligencia" personalizada: las puntuaciones de los validadores sobre los resultados de IA se agregan (mediana ponderada por stake) para determinar las recompensas de los mineros. El consenso de la cadena subyacente es similar a PoS (Substrate) para los bloques, pero la validez del bloque depende del consenso de IA en cada época. Resistente a puntuaciones atípicas y colusión hasta el 50 %.Verificación optimista (estilo Truebit): se asume que el resultado del resolutor es correcto a menos que un verificador lo desafíe. Utiliza pruebas de fraude interactivas en la cadena para señalar cualquier paso incorrecto. También implementa pruebas criptográficas de computación (prueba de aprendizaje) para validar el progreso del entrenamiento sin re-ejecución. Ethereum proporciona el consenso base para las transacciones.Cadena de Prueba de Participación (PoS) + validación de tareas por coordinadores: La Cuckoo Chain usaba validadores PoS para la producción de bloques (inicialmente, los mineros también ayudaban a asegurar los bloques). Los resultados de las tareas de IA son verificados por los nodos coordinadores (que comprueban los resultados de los mineros contra el comportamiento esperado del modelo). Aún no hay pruebas criptográficas especializadas; se basa en el stake y la reputación (sin confianza en la medida en que el mal comportamiento conduce a slashing o votación negativa en lugar de una detección automática por prueba matemática). Transición al consenso de Ethereum (rollup) para la seguridad del libro mayor.
Token y UtilidadToken TAO: moneda nativa en Subtensor. Se utiliza para staking (requerido para registrarse e influir en el consenso), tarifas de transacción/pagos (por ejemplo, pagar por consultas de IA), y como recompensa por contribuciones (minería/validación). TAO tiene una inflación continua (1 TAO por bloque de 12s) que impulsa el mecanismo de recompensa. También se usa en la gobernanza (staking de dTAO en subredes).Token Gensyn (ERC-20, nombre por anunciar): la unidad del protocolo para pagos (los desarrolladores pagan a los resolutores con él). Funciona como garantía de stake (los resolutores/verificadores depositan tokens y son penalizados con slashing por fallos). Se usará en la gobernanza (votación sobre actualizaciones del protocolo a través de la DAO de la Fundación Gensyn). Aún no hay detalles sobre el suministro; probablemente una porción se asigne para incentivar la adopción temprana (testnet, etc.).Token CAI (ERC-20): token nativo de la Cuckoo Chain (1 mil millones de suministro fijo). Multipropósito: tarifa de gas para transacciones en la Cuckoo Chain, staking para roles de red (mineros, coordinadores deben bloquear CAI), votación de gobernanza sobre decisiones del protocolo, y recompensas por contribuciones (las recompensas de minería/staking provenían de la asignación inicial). También tiene un atractivo de meme (aspecto de token comunitario).
Tokenización de ActivosCómputo: sí – el trabajo de cómputo de IA se tokeniza a través de recompensas de TAO (piensa en TAO como "gas" para la inteligencia). Modelos: indirectamente – los modelos ganan TAO según su rendimiento, pero los modelos/pesos en sí no son activos en la cadena (no hay NFT para modelos). La propiedad de la subred está tokenizada (NFT de propietario de subred + tokens alfa) para representar una participación en un mercado de modelos. Datos: no tokenizados (los datos están fuera de la cadena; Bittensor se enfoca en los resultados de los modelos en lugar de los conjuntos de datos).Cómputo: sí – el cómputo inactivo se convierte en una mercancía en la cadena, comercializada en un mercado de trabajos por tokens. Modelos: no explícitamente – los modelos son proporcionados fuera de la cadena por los desarrolladores, y los resultados se devuelven; no hay tokens de modelo incorporados (aunque el protocolo podría facilitar la concesión de licencias si las partes lo configuran). Datos: no – los conjuntos de datos se manejan fuera de la cadena entre el solicitante y el resolutor (podrían estar encriptados o protegidos, pero no representados como activos en la cadena). La visión de Gensyn incluye posiblemente el comercio de algoritmos o datos como el cómputo, pero la implementación principal se centra en el cómputo.Cómputo: sí – el tiempo de GPU se tokeniza a través de pagos diarios de CAI y recompensas por tareas. La red trata el poder de cómputo como un recurso que los mineros "venden" por CAI. Modelos: parcialmente – la plataforma integra modelos como servicios; sin embargo, los modelos en sí no se acuñan como NFT. El valor de un modelo se captura en la capacidad del coordinador para ganar CAI de los usuarios que lo utilizan. Los planes futuros insinúan modelos de propiedad comunitaria, pero actualmente la PI del modelo está fuera de la cadena (propiedad de quien ejecuta el coordinador). Datos: no hay tokenización general de datos. Las entradas/salidas de los usuarios son transitorias. (Cuckoo se asocia con aplicaciones como Beancount, etc., pero los datos no están representados por tokens en la cadena).
GobernanzaDescentralizada, impulsada por los poseedores de tokens (dTAO): Inicialmente tenía 64 validadores electos que ejecutaban el consenso raíz; ahora la gobernanza es abierta: los poseedores de TAO hacen stake en subredes para dirigir las emisiones (asignación de recursos basada en el mercado). Las actualizaciones y cambios del protocolo se deciden a través de propuestas en la cadena (votación de TAO, con la Fundación/consejo de Bittensor facilitando). El objetivo es ser completamente gobernado por la comunidad, con la fundación cediendo gradualmente el control.Descentralización progresiva: La Fundación Gensyn + un consejo electo gestionan las decisiones tempranas. Después del lanzamiento del token, la gobernanza pasará a una DAO donde los poseedores de tokens votan sobre propuestas (similar a muchos proyectos DeFi). El entorno de seguridad compartida de Ethereum significa que los cambios importantes involucran a la comunidad y potencialmente a la gobernanza de la Capa 1. El alcance de la gobernanza incluye parámetros económicos, actualizaciones de contratos (sujetas a auditorías de seguridad). Aún no está en vivo, pero se describe en el litepaper para después de la mainnet.Mixta comunidad y fundación: Cuckoo se lanzó con un ethos de "lanzamiento justo" (sin pre-minado para insiders). Se pretende una DAO comunitaria, con votación de CAI sobre decisiones clave y actualizaciones del protocolo. En la práctica, el equipo central (desarrolladores de Cuckoo Network) ha liderado decisiones importantes (como el cierre de la cadena), pero comparten la justificación de forma transparente y la posicionan como una evolución para el beneficio de la comunidad. Es probable que las características de gobernanza en la cadena (propuestas, votación) lleguen cuando el nuevo rollup esté en su lugar. El staking también da influencia en la gobernanza de manera informal a través del sistema de reputación (votos ponderados por stake para nodos de confianza).
Modelo de IncentivosRecompensas inflacionarias vinculadas a la contribución: ~1 TAO por bloque distribuido a los participantes según el rendimiento. Calidad = más recompensa. Mineros y validadores ganan continuamente (bloque a bloque), además los delegadores ganan una parte. TAO también es utilizado por los usuarios finales para pagar por servicios (creando un lado de demanda para el token). La economía del token está diseñada para fomentar la participación a largo plazo (staking) y la mejora constante de los modelos, similar a los mineros de Bitcoin pero "minando IA". Los problemas potenciales (centralización del stake que conduce a recompensas desalineadas) se están abordando mediante ajustes de incentivos.Impulsado por el mercado, pago por resultados: Sin rendimiento inflacionario continuo (más allá de posibles incentivos iniciales); los resolutores solo reciben pago cuando hacen el trabajo con éxito. Los verificadores solo reciben pago al atrapar un fraude (incentivo jackpot). Esto crea una economía directa: el gasto de los desarrolladores = las ganancias de los proveedores. El valor del token está ligado a la demanda real de cómputo. Para arrancar, Gensyn probablemente recompense a los usuarios de la testnet en el lanzamiento (distribución única), pero en estado estable, se basa en el uso. Esto alinea estrechamente los incentivos con la utilidad de la red (si los trabajos de IA aumentan, el uso del token aumenta, beneficiando a todos los poseedores).Híbrido (pasando de la inflación a las tarifas de uso): Inicialmente, las asignaciones de minería y staking del pool comunitario del 51 % recompensaban a los mineros de GPU (30 % del suministro) y a los stakers (11 %) independientemente del uso externo; esto era para impulsar los efectos de red. Con el tiempo, y especialmente después del cierre de la L1, el énfasis está en el reparto de ingresos: los mineros y los desarrolladores de aplicaciones ganan de los pagos reales de los usuarios (por ejemplo, dividiendo las tarifas por una generación de imágenes). El rendimiento de los stakers se derivará de una porción del uso real o se ajustará para fomentar el apoyo solo a nodos productivos. Así que el incentivo inicial era "hacer crecer la red" (alto APY, airdrops) y más tarde es "la red crece si es realmente útil" (ganancias de los clientes). Esta transición está diseñada para eliminar a los parásitos y garantizar la sostenibilidad.
Seguridad y Mitigaciones de AtaquesSybil: El registro costoso (stake de TAO) disuade a los Sybils. Colusión: El consenso de mediana resiste la colusión hasta el 50 % del stake; dTAO rompió una oligarquía de validadores al empoderar la votación de los poseedores de tokens. Deshonestidad: Los validadores que se desvían del consenso pierden parte de la recompensa (incentiva la puntuación honesta). El ataque del 51 % es posible si el stake está muy concentrado; la investigación sugiere agregar límites de stake y slashing por rendimiento para mitigarlo. Ataques a modelos: Los resultados de modelos deficientes o maliciosos son penalizados con bajas puntuaciones. No hay un único punto de fallo: la red está descentralizada globalmente (los mineros de TAO existen en todo el mundo, pseudoanónimos).Sybil: Requiere una participación económica; los nodos falsos sin stake/trabajo no ganan nada. Verificación: Se necesita al menos un verificador honesto; si es así, cualquier resultado incorrecto es atrapado y penalizado. Utiliza incentivos criptoeconómicos para que hacer trampa no sea rentable (el resolutor pierde el depósito, el verificador gana). Colusión: Seguro siempre que no todas las partes coludan; uno honesto rompe el esquema al revelar el fraude. Confianza: No depende de la confianza en el hardware o las empresas, solo en la teoría de juegos económicos y la criptografía. Ataques: Difícil de censurar o hacer DoS ya que las tareas están distribuidas; un atacante necesitaría superar en la puja a los nodos honestos o vencer consistentemente la prueba de fraude (poco probable sin el control mayoritario). Sin embargo, las puertas traseras sutiles en los modelos podrían evadir la detección, lo cual es un desafío conocido (mitigado por las pruebas de usuario y posiblemente futuras auditorías más allá de la ejecución correcta). La seguridad general es análoga a un rollup optimista para el cómputo.Sybil: Todos los actores deben hacer stake de CAI, elevando la barrera para los Sybils. Además, un sistema de reputación (staking + votación) significa que las identidades Sybil sin reputación no obtendrán tareas. Mal comportamiento de los nodos: Los coordinadores pueden eliminar a los mineros de bajo rendimiento o sospechosos; los stakers pueden retirar su apoyo. El protocolo puede aplicar slashing al stake por fraude probado (la L1 tenía condiciones de slashing para el consenso; algo similar podría aplicarse al fraude en las tareas). Colusión: Parcialmente basada en la confianza; se basa en la competencia abierta y la supervisión de la comunidad para evitar que la colusión domine. Dado que las tareas y los pagos son públicos en la cadena, la colusión flagrante puede ser identificada y castigada socialmente o a través de la gobernanza. Protección del usuario: Los usuarios pueden cambiar de proveedor si uno es censurado o corrompido, asegurando que no haya un único punto de control. Envenenamiento/contenido: Por diseño, los mineros ejecutan los modelos proporcionados tal cual; si alteran las salidas maliciosamente, pierden reputación y recompensas. El sistema apuesta por actores racionales: como todos tienen valor en stake y potencial de ganancia futuro, están desincentivados de ataques que socavarían la confianza en la red (reforzado por las duras lecciones de su experimento L1 sobre alinear incentivos con utilidad).

Tabla: Comparación de características de Bittensor, Gensyn y Cuckoo AI en arquitectura, enfoque, roles, consenso, tokens, tokenización de activos, gobernanza, incentivos y seguridad.