Saltar al contenido principal

79 publicaciones etiquetados con "IA"

Aplicaciones de inteligencia artificial y aprendizaje automático

Ver Todas las Etiquetas

El avance de $19.2 mil millones de DePIN: De la euforia de IoT a la realidad empresarial

· 15 min de lectura
Dora Noda
Software Engineer

Durante años, la promesa de la infraestructura física descentralizada se sintió como una solución en busca de un problema. Los entusiastas de la blockchain hablaban de tokenizar todo, desde puntos de acceso WiFi hasta paneles solares, mientras que las empresas lo descartaban silenciosamente como un "hype" cripto divorciado de la realidad operativa. Ese descarte acaba de volverse costoso.

El sector DePIN (Decentralized Physical Infrastructure Network) ha explotado de 5,2 mil millones a 19,2 mil millones de dólares en capitalización de mercado en solo un año: un aumento del 270 % que no tiene nada que ver con la manía especulativa y todo que ver con empresas que descubren que pueden reducir los costos de infraestructura en un 50 - 85 % mientras mantienen la calidad del servicio. Con 321 proyectos activos que ahora generan 150 millones de dólares en ingresos mensuales y el Foro Económico Mundial proyectando que el mercado alcanzará los 3,5 billones de dólares para 2028, DePIN ha cruzado el abismo de tecnología experimental a infraestructura de misión crítica.

Las cifras que cambiaron la narrativa

CoinGecko rastrea casi 250 proyectos DePIN a partir de septiembre de 2025, frente a una fracción de esa cifra hace solo 24 meses. Pero la verdadera historia no es el número de proyectos, sino los ingresos. El sector generó un estimado de 72 millones de dólares en ingresos on-chain en 2025, con proyectos de primer nivel que ahora registran ingresos recurrentes anuales de ocho cifras.

Solo en enero de 2026, los proyectos DePIN generaron colectivamente 150 millones de dólares en ingresos. Aethir, el proveedor de infraestructura enfocado en GPU, lideró con 55 millones de dólares. Render Network le siguió con 38 millones de dólares provenientes de servicios de renderizado de GPU descentralizados. Helium contribuyó con 24 millones de dólares de sus operaciones de red inalámbrica. Estas no son métricas de vanidad de "airdrop farmers"; representan empresas reales que pagan por cómputo, conectividad y almacenamiento.

La composición del mercado cuenta una historia aún más reveladora: el 48 % de los proyectos DePIN por capitalización de mercado se centran ahora en la infraestructura de IA. A medida que las cargas de trabajo de IA explotan y los hiperescaladores luchan por satisfacer la demanda, las redes de cómputo descentralizadas se están convirtiendo en la válvula de escape para un cuello de botella de la industria que los centros de datos tradicionales no pueden resolver con la suficiente rapidez.

El dominio de DePIN en Solana: por qué la velocidad importa

Si Ethereum es el hogar de DeFi y Bitcoin es oro digital, Solana se ha convertido silenciosamente en la blockchain preferida para la coordinación de infraestructura física. Con 63 proyectos DePIN en su red —incluidos Helium, Grass y Hivemapper—, los bajos costos de transacción y el alto rendimiento de Solana la convierten en la única Capa 1 capaz de manejar las cargas de trabajo intensivas en datos y en tiempo real que exige la infraestructura física.

La transformación de Helium es particularmente instructiva. Después de migrar a Solana en abril de 2023, la red inalámbrica se ha escalado a más de 115.000 puntos de acceso que sirven a 1,9 millones de usuarios diarios. El número de suscriptores de Helium Mobile aumentó de 115.000 en septiembre de 2024 a casi 450.000 en septiembre de 2025: un incremento del 300 % año tras año. Solo en el segundo trimestre de 2025, la red transfirió 2.721 terabytes de datos para socios operadores, un 138,5 % más que el trimestre anterior.

La economía es convincente: Helium proporciona conectividad móvil a una fracción de los costos de los operadores tradicionales al incentivar a las personas a desplegar y mantener puntos de acceso. Los suscriptores obtienen llamadas, mensajes de texto y datos ilimitados por 20 dólares al mes. Los operadores de puntos de acceso ganan tokens basados en la cobertura de la red y la transferencia de datos. Los operadores tradicionales no pueden competir con esta estructura de costos.

Render Network demuestra el potencial de DePIN en la IA y las industrias creativas. Con una capitalización de mercado de 770 millones de dólares, Render procesó más de 1,49 millones de fotogramas de renderizado solo en julio de 2025, quemando 207.900 USDC en tarifas. Los artistas e investigadores de IA aprovechan la capacidad ociosa de las GPU de equipos de juego y granjas de minería, pagando centavos por cada dólar en comparación con los servicios de renderizado en la nube centralizados.

Grass, la DePIN de más rápido crecimiento en Solana con más de 3 millones de usuarios, monetiza el ancho de banda no utilizado para conjuntos de datos de entrenamiento de IA. Los usuarios aportan su conectividad a Internet inactiva, ganando tokens mientras las empresas extraen datos web para modelos de lenguaje extensos. Es un arbitraje de infraestructura a escala: tomar recursos abundantes y subutilizados (ancho de banda residencial) y empaquetarlos para empresas dispuestas a pagar tarifas premium por la recopilación de datos distribuidos.

Adopción empresarial: la reducción de costos del 50 - 85 % que ningún CFO puede ignorar

El cambio de los programas piloto a los despliegues de producción se aceleró bruscamente en 2025. Los operadores de telecomunicaciones, los proveedores de la nube y las empresas de energía no solo están experimentando con DePIN, sino que lo están integrando en sus operaciones principales.

La infraestructura inalámbrica cuenta ahora con más de 5 millones de routers descentralizados registrados en todo el mundo. Una empresa de telecomunicaciones de Fortune 500 registró un aumento del 23 % en los clientes de conectividad impulsados por DePIN, lo que demuestra que las empresas adoptarán modelos descentralizados si la economía y la fiabilidad se alinean. La asociación de T-Mobile con Helium para descargar la cobertura de red en áreas rurales demuestra cómo los operadores establecidos están utilizando DePIN para resolver problemas de "última milla" que los gastos de capital tradicionales no pueden justificar.

El sector de las telecomunicaciones se enfrenta a una presión existencial: los gastos de capital para la construcción de torres y las licencias de espectro están aplastando los márgenes, mientras que los clientes exigen cobertura universal. Se proyecta que el mercado de blockchain en telecomunicaciones crecerá de 1,07 mil millones de dólares en 2024 a 7,25 mil millones de dólares para 2030, a medida que los operadores se den cuenta de que incentivar a los individuos a desplegar infraestructura es más barato que hacerlo ellos mismos.

El cómputo en la nube presenta una oportunidad aún mayor. brev.dev, respaldada por Nvidia, y otros proveedores de cómputo DePIN están atendiendo cargas de trabajo de IA empresarial que costarían 2 o 3 veces más en AWS, Google Cloud o Azure. Como se espera que las cargas de trabajo de inferencia representen dos tercios de todo el cómputo de IA para 2026 (frente a un tercio en 2023), la demanda de capacidad de GPU rentable no hará más que intensificarse. Las redes descentralizadas pueden obtener GPU de equipos de juego, operaciones de minería y centros de datos subutilizados, una capacidad a la que las nubes centralizadas no pueden acceder.

Las redes de energía son quizás el caso de uso más transformador de DePIN. Las redes eléctricas centralizadas luchan por equilibrar la oferta y la demanda a nivel local, lo que provoca ineficiencias y apagones. Las redes de energía descentralizadas utilizan la coordinación de blockchain para rastrear la producción de paneles solares, baterías y medidores de propiedad individual. Los participantes generan energía, comparten el exceso de capacidad con los vecinos y ganan tokens en función de su contribución. El resultado: una mejor resiliencia de la red, una reducción del desperdicio de energía e incentivos financieros para la adopción de energías renovables.

Infraestructura de IA: el 48 % que está redefiniendo el stack

Casi la mitad de la capitalización de mercado de DePIN se centra ahora en la infraestructura de IA, una convergencia que está transformando la forma en que se procesan las cargas de trabajo con un uso intensivo de cómputo. El gasto en almacenamiento de infraestructura de IA reportó un crecimiento interanual del 20.5 % en el segundo trimestre de 2025, con un 48 % del gasto proveniente de despliegues en la nube. Sin embargo, las nubes centralizadas están alcanzando sus límites de capacidad justo cuando la demanda explota.

El mercado mundial de GPU para centros de datos fue de 14,480 millones de dólares en 2024 y se proyecta que alcance los 155,200 millones de dólares para 2032. Aun así, Nvidia apenas puede seguir el ritmo de la demanda, lo que genera tiempos de espera de 6 a 12 meses para los chips H100 y H200. Las redes DePIN sortean este cuello de botella al agregar GPUs de consumo y empresariales que permanecen inactivas entre el 80 % y el 90 % del tiempo.

Las cargas de trabajo de inferencia —ejecución de modelos de IA en producción una vez finalizado el entrenamiento— son el segmento de más rápido crecimiento. Mientras que la mayor parte de la inversión de 2025 se centró en chips de entrenamiento, se espera que el mercado de chips optimizados para inferencia supere los 50,000 millones de dólares en 2026, a medida que las empresas pasen del desarrollo de modelos al despliegue a escala. Las redes de cómputo DePIN destacan en la inferencia porque las cargas de trabajo son altamente paralelizables y tolerantes a la latencia, lo que las hace perfectas para la infraestructura distribuida.

Proyectos como Render, Akash y Aethir están capturando esta demanda al ofrecer acceso fraccionado a GPUs, precios spot y una distribución geográfica que las nubes centralizadas no pueden igualar. Una startup de IA puede desplegar 100 GPUs para un trabajo por lotes de fin de semana y pagar solo por el uso, sin compromisos mínimos ni contratos empresariales. Para los hyperscalers, eso es fricción. Para DePIN, esa es toda la propuesta de valor.

Las categorías que impulsan el crecimiento

DePIN se divide en dos categorías fundamentales: redes de recursos físicos (hardware como torres inalámbricas, redes de energía y sensores) y redes de recursos digitales (cómputo, ancho de banda y almacenamiento). Ambas están experimentando un crecimiento explosivo, pero los recursos digitales están escalando más rápido debido a las menores barreras de despliegue.

Las redes de almacenamiento como Filecoin permiten a los usuarios alquilar espacio de disco duro no utilizado, creando alternativas distribuidas a AWS S3 y Google Cloud Storage. La propuesta de valor: menores costos, redundancia geográfica y resistencia a fallos de punto único. Las empresas están realizando pruebas piloto con Filecoin para datos de archivo y copias de seguridad, casos de uso donde las tarifas de salida (egress fees) de la nube centralizada pueden sumar millones de dólares anualmente.

Los recursos de cómputo abarcan el renderizado por GPU (Render), el cómputo de propósito general (Akash) y la inferencia de IA (Aethir). Akash opera un mercado abierto para despliegues de Kubernetes, lo que permite a los desarrolladores levantar contenedores en servidores infrautilizados en todo el mundo. El ahorro de costos oscila entre el 30 % y el 85 % en comparación con AWS, dependiendo del tipo de carga de trabajo y los requisitos de disponibilidad.

Las redes inalámbricas como Helium y World Mobile Token están abordando la brecha de conectividad en mercados desatendidos. World Mobile desplegó redes móviles descentralizadas en Zanzíbar, transmitiendo un partido del Fulham FC mientras proporcionaba internet a 500 personas dentro de un radio de 600 metros. Estos no son pruebas de concepto, son redes de producción que sirven a usuarios reales en regiones donde los ISP tradicionales se niegan a operar debido a una economía desfavorable.

Las redes de energía utilizan blockchain para coordinar la generación y el consumo distribuidos. Los propietarios de paneles solares venden el exceso de electricidad a sus vecinos. Los propietarios de vehículos eléctricos proporcionan estabilización a la red al programar la carga en horas valle, ganando tokens por su flexibilidad. Las empresas de servicios públicos obtienen visibilidad en tiempo real de la oferta y la demanda local sin desplegar costosos medidores inteligentes y sistemas de control. Es una coordinación de infraestructura que no podría existir sin la capa de liquidación trustless de blockchain.

De 19.2 mil millones a 3.5 billones de dólares: lo que se necesita para llegar allí

La proyección de 3.5 billones de dólares del Foro Económico Mundial para 2028 no es solo una especulación alcista; es un reflejo de cuán masivo es el mercado direccionable una vez que DePIN se consolide a escala. El gasto mundial en infraestructura de telecomunicaciones supera los 1.5 billones de dólares anuales. La computación en la nube es un mercado de más de 600,000 millones de dólares. La infraestructura energética representa billones en gastos de capital.

DePIN no necesita reemplazar estas industrias; solo necesita capturar entre el 10 % y el 20 % de la cuota de mercado ofreciendo una economía superior. Las matemáticas funcionan porque DePIN invierte el modelo de infraestructura tradicional: en lugar de que las empresas recauden miles de millones para construir redes y luego recuperen los costos durante décadas, DePIN incentiva a los individuos a desplegar infraestructura por adelantado, ganando tokens a medida que aportan capacidad. Es un gasto de capital financiado de forma colaborativa (crowdsourced) y escala mucho más rápido que los despliegues centralizados.

Pero llegar a los 3.5 billones de dólares requiere resolver tres desafíos:

Claridad regulatoria. Las telecomunicaciones y la energía son industrias fuertemente reguladas. Los proyectos DePIN deben navegar por las licencias de espectro (inalámbrico), los acuerdos de interconexión (energía) y los requisitos de residencia de datos (cómputo y almacenamiento). Se está progresando —los gobiernos de África y América Latina están adoptando DePIN para cerrar las brechas de conectividad—, pero los mercados maduros como EE. UU. y la UE avanzan más lentamente.

Confianza empresarial. Las empresas de Fortune 500 no migrarán cargas de trabajo de misión crítica a DePIN hasta que la confiabilidad iguale o supere a las alternativas centralizadas. Eso significa garantías de tiempo de actividad (uptime), SLAs, seguros contra fallos y soporte 24/7; requisitos básicos en la TI empresarial de los que muchos proyectos DePIN aún carecen. Los ganadores serán los proyectos que prioricen la madurez operativa sobre el precio del token.

Economía de tokens (Tokenomics). Los primeros proyectos DePIN sufrieron de tokenomics insostenibles: recompensas inflacionarias que inundaban los mercados, incentivos desalineados que premiaban los ataques Sybil sobre el trabajo útil y una acción de precio impulsada por la especulación divorciada de los fundamentos de la red. La próxima generación de proyectos DePIN está aprendiendo de estos errores, implementando mecanismos de quema (burn) vinculados a los ingresos, calendarios de consolidación (vesting) para los contribuyentes y una gobernanza que prioriza la sostenibilidad a largo plazo.

Por qué los desarrolladores de BlockEden.xyz deberían prestar atención

Si estás construyendo en blockchain, DePIN representa uno de los encajes producto-mercado (product-market fit) más claros en la historia de las criptomonedas. A diferencia de la incertidumbre regulatoria de DeFi o los ciclos especulativos de los NFT, DePIN resuelve problemas reales con un ROI medible. Las empresas necesitan infraestructura más barata. Los individuos tienen activos subutilizados. Blockchain proporciona coordinación y liquidación sin necesidad de confianza (trustless). Las piezas encajan.

Para los desarrolladores, la oportunidad reside en construir el middleware que prepare a DePIN para las empresas: herramientas de monitoreo y observabilidad, contratos inteligentes para el cumplimiento de SLA, sistemas de reputación para operadores de nodos, protocolos de seguros para garantías de tiempo de actividad (uptime) y pasarelas de pago que liquidan instantáneamente a través de fronteras geográficas.

La infraestructura que construyas hoy podría impulsar la internet descentralizada de 2028 — una donde Helium gestione la conectividad móvil, Render procese la inferencia de IA, Filecoin almacene los archivos del mundo y Akash ejecute los contenedores que lo orquestan todo. Eso no es futurismo cripto — es la hoja de ruta que las empresas de Fortune 500 ya están pilotando.

Fuentes

El gambito de 7.2 millones de dólares de Ambient: Cómo Proof of Logits podría reemplazar el minado basado en hash con inferencia de IA

· 21 min de lectura
Dora Noda
Software Engineer

¿Qué pasaría si el mismo trabajo computacional que asegura una cadena de bloques también entrenara a la próxima generación de modelos de IA? Esa no es una visión lejana: es la tesis central detrás de Ambient, un fork de Solana que acaba de recaudar 7,2 millones de dólares de a16z CSX para construir la primera blockchain de prueba de trabajo impulsada por IA del mundo.

La prueba de trabajo tradicional quema electricidad resolviendo acertijos criptográficos arbitrarios. Los mineros de Bitcoin compiten para encontrar hashes con suficientes ceros a la izquierda: un trabajo computacional sin más valor que la seguridad de la red. Ambient cambia este guion por completo. Su mecanismo de consenso Proof of Logits (PoL) reemplaza el procesamiento masivo de hashes con inferencia de IA, ajuste fino (fine-tuning) y entrenamiento de modelos. Los mineros no resuelven acertijos; generan salidas de IA verificables. Los validadores no vuelven a calcular cargas de trabajo completas; verifican huellas criptográficas llamadas logits.

¿El resultado? Una blockchain donde la seguridad y el avance de la IA están alineados económicamente, donde un gasto operativo de verificación del 0,1 % hace que la comprobación del consenso sea casi gratuita, y donde los costes de entrenamiento caen 10 veces en comparación con las alternativas centralizadas. Si tiene éxito, Ambient podría responder a una de las críticas más antiguas de las criptomonedas —que la prueba de trabajo desperdicia recursos— convirtiendo la minería en un trabajo de IA productivo.

El avance de Proof of Logits: IA verificable sin recálculo

Comprender PoL requiere entender qué son realmente los logits. Cuando los modelos de lenguaje de gran tamaño generan texto, no emiten palabras directamente. En su lugar, en cada paso, producen una distribución de probabilidad sobre todo el vocabulario: puntuaciones numéricas que representan niveles de confianza para cada posible token siguiente.

Estas puntuaciones se llaman logits. Para un modelo con un vocabulario de 50.000 tokens, generar una sola palabra significa calcular 50.000 logits. Estos números sirven como una huella dactilar computacional única. Solo un modelo específico, con pesos específicos, ejecutando una entrada específica, produce una distribución de logits específica.

La innovación de Ambient consiste en utilizar los logits como prueba de trabajo: los mineros realizan inferencias de IA (generando respuestas a prompts) y los validadores verifican este trabajo comprobando las huellas dactilares de los logits en lugar de rehacer todo el cálculo.

Así es como funciona el proceso de verificación:

El minero genera la salida: Un minero recibe un prompt (p. ej., "Resume los principios del consenso blockchain") y utiliza un modelo de 600.000 millones de parámetros para generar una respuesta de 4.000 tokens. Esto produce 4.000 × 50.000 = 200 millones de logits.

El validador realiza verificaciones aleatorias: En lugar de regenerar los 4.000 tokens, el validador muestrea aleatoriamente una posición, por ejemplo, el token 2.847. El validador ejecuta un único paso de inferencia en esa posición y compara los logits informados por el minero con la distribución esperada.

Compromiso criptográfico: Si los logits coinciden (dentro de un umbral aceptable que tiene en cuenta la precisión de punto flotante), el trabajo del minero se verifica. Si no coinciden, el bloque es rechazado y el minero pierde sus recompensas.

Esto reduce el gasto operativo de verificación a aproximadamente el 0,1 % del cálculo original. Un validador que comprueba 200 millones de logits solo necesita verificar 50.000 logits (una posición de token), reduciendo el coste en un 99,9 %. Compare esto con la PoW tradicional, donde la validación significa volver a ejecutar toda la función hash, o el enfoque de Bitcoin, donde verificar un solo hash SHA-256 es trivial porque el acertijo en sí es arbitrario.

El sistema de Ambient es exponencialmente más barato que los esquemas ingenuos de "prueba de trabajo útil" que requieren un recálculo completo. Está más cerca de la eficiencia de Bitcoin (validación económica) pero ofrece una utilidad real (inferencia de IA en lugar de hashes sin sentido).

La reducción de costes de entrenamiento de 10x: IA descentralizada sin monopolios de centros de datos

El entrenamiento de IA centralizado es costoso: prohibitivo para la mayoría de las organizaciones. Entrenar modelos a escala de GPT-4 cuesta decenas de millones de dólares, requiere miles de GPU empresariales y concentra el poder en manos de unos pocos gigantes tecnológicos. La arquitectura de Ambient tiene como objetivo democratizar esto distribuyendo el entrenamiento en una red de mineros independientes.

La reducción de costes de 10 veces proviene de dos innovaciones técnicas:

Fragmentación al estilo PETALS: Ambient adapta técnicas de PETALS, un sistema de inferencia descentralizado donde cada nodo almacena solo un fragmento (shard) de un modelo grande. En lugar de requerir que los mineros mantengan un modelo completo de 600.000 millones de parámetros (lo que requeriría terabytes de VRAM), cada minero posee un subconjunto de capas. Un prompt fluye secuencialmente a través de la red, con cada minero procesando su fragmento y pasando las activaciones al siguiente.

Esto significa que un minero con una sola GPU de consumo (24 GB de VRAM) puede participar en el entrenamiento de modelos que, de otro modo, requerirían cientos de GPU en un centro de datos. Al distribuir el grafo computacional a través de cientos o miles de nodos, Ambient elimina la necesidad de costosas interconexiones de gran ancho de banda (como InfiniBand) utilizadas en los clústeres de ML tradicionales.

Sparsity (dispersión) inspirada en SLIDE: La mayoría de los cálculos de redes neuronales implican multiplicar matrices donde la mayoría de las entradas están cerca de cero. SLIDE (Sub-LInear Deep learning Engine) aprovecha esto mediante el hashing de activaciones para identificar qué neuronas importan realmente para una entrada determinada, omitiendo por completo los cálculos irrelevantes.

Ambient aplica esta dispersión al entrenamiento distribuido. En lugar de que todos los mineros procesen todos los datos, la red enruta dinámicamente el trabajo a los nodos cuyos fragmentos son relevantes para el lote actual. Esto reduce el gasto operativo de comunicación (un cuello de botella importante en el ML distribuido) y permite que los mineros con hardware más débil participen manejando subgrafos dispersos.

La combinación produce lo que Ambient afirma es un rendimiento (throughput) 10 veces mejor que los esfuerzos de entrenamiento distribuido existentes como DiLoCo o Hivemind. Lo más importante es que reduce la barrera de entrada: los mineros no necesitan infraestructura de nivel de centro de datos; una PC para juegos con una GPU decente es suficiente para contribuir.

Arquitectura de Fork de Solana: El Alto TPS se Encuentra con el PoW No Bloqueante

Ambient no está construyendo desde cero. Es un fork completo de Solana, heredando la Máquina Virtual de Solana (SVM), el sellado de tiempo de Prueba de Historia (PoH) y el reenvío de mempool Gulf Stream. Esto le otorga a Ambient el rendimiento teórico de 65,000 TPS de Solana y una finalidad de menos de un segundo.

Pero Ambient realiza una modificación crítica: añade una capa de prueba de trabajo (PoW) no bloqueante sobre el consenso de Solana.

Así es como funciona el consenso híbrido:

La Prueba de Historia ordena las transacciones: La PoH de Solana proporciona un reloj criptográfico, ordenando las transacciones sin esperar un consenso global. Esto permite la ejecución paralela en múltiples núcleos.

La Prueba de Logits asegura la cadena: Los mineros compiten para producir resultados de inferencia de IA válidos. La blockchain acepta bloques de mineros que generan el trabajo de IA más valioso (medido por la complejidad de la inferencia, el tamaño del modelo o la reputación en staking).

Integración no bloqueante: A diferencia de Bitcoin, donde la producción de bloques se detiene hasta que se encuentra un PoW válido, el PoW de Ambient opera de forma asincrónica. Los validadores continúan procesando transacciones mientras los mineros compiten para enviar el trabajo de IA. Esto evita que el PoW se convierta en un cuello de botella.

El resultado es una blockchain que mantiene la velocidad de Solana (crítica para aplicaciones de IA que requieren inferencia de baja latencia) al tiempo que garantiza la competencia económica en las actividades principales de la red: inferencia, ajuste fino (fine-tuning) y entrenamiento.

Este diseño también evita los errores anteriores de Ethereum con el consenso de "trabajo útil". Primecoin y Gridcoin intentaron utilizar la computación científica como PoW, pero se enfrentaron a un fallo fatal: el trabajo útil no es uniformemente difícil. Algunos problemas son fáciles de resolver pero difíciles de verificar; otros son fáciles de paralelizar de forma desleal. Ambient esquiva esto haciendo que la verificación de logits sea computacionalmente barata y estandarizada. Cada tarea de inferencia, independientemente de su complejidad, puede verificarse con el mismo algoritmo de comprobación puntual (spot-checking).

La Carrera para Entrenar AGI On-Chain: ¿Quién más está Compitiendo?

Ambient no está solo en el objetivo de la IA nativa de la blockchain. El sector está saturado de proyectos que afirman descentralizar el aprendizaje automático, pero pocos ofrecen un entrenamiento on-chain verificable. Así es como se compara Ambient con sus principales competidores:

Artificial Superintelligence Alliance (ASI): Formada por la fusión de Fetch.AI, SingularityNET y Ocean Protocol, ASI se centra en la infraestructura de AGI descentralizada. La ASI Chain admite la ejecución de agentes concurrentes y transacciones de modelos seguras. A diferencia del enfoque PoW de Ambient, ASI se basa en un modelo de mercado donde los desarrolladores pagan por créditos de cómputo. Esto funciona para la inferencia, pero no alinea los incentivos para el entrenamiento: los mineros no tienen motivos para contribuir con costosas horas de GPU a menos que se les compense explícitamente por adelantado.

AIVM (ChainGPT): La hoja de ruta de AIVM de ChainGPT apunta al lanzamiento de la red principal en 2026, integrando recursos de GPU off-chain con verificación on-chain. Sin embargo, la verificación de AIVM se basa en optimistic rollups (asumen la corrección a menos que se impugne), lo que introduce latencia por las pruebas de fraude. La verificación de logits de Ambient es determinista: los validadores saben instantáneamente si el trabajo es válido.

Internet Computer (ICP): El Internet Computer de Dfinity puede albergar modelos grandes de forma nativa on-chain sin infraestructura de nube externa. Pero la arquitectura de canisters de ICP no está optimizada para el entrenamiento; está diseñada para la inferencia y la ejecución de contratos inteligentes. El PoW de Ambient incentiva económicamente la mejora continua del modelo, mientras que ICP requiere que los desarrolladores gestionen el entrenamiento de forma externa.

Bittensor: Bittensor utiliza un modelo de subredes donde cadenas especializadas entrenan diferentes tareas de IA (generación de texto, clasificación de imágenes, etc.). Los mineros compiten enviando pesos de modelos y los validadores los clasifican por rendimiento. Bittensor destaca en la inferencia descentralizada, pero tiene dificultades con la coordinación del entrenamiento: no hay un modelo global unificado, sino una colección de subredes independientes. El enfoque de Ambient unifica el entrenamiento bajo un único mecanismo de PoW.

Lightchain Protocol AI: El whitepaper de Lightchain propone la Prueba de Inteligencia (PoI), donde los nodos realizan tareas de IA para validar transacciones. Sin embargo, el consenso de Lightchain sigue siendo en gran medida teórico, sin anuncio de lanzamiento de testnet. Ambient, por el contrario, planea una testnet para el Q2 / Q3 de 2025.

La ventaja de Ambient es combinar el trabajo de IA verificable con la arquitectura de alto rendimiento probada de Solana. La mayoría de los competidores sacrifican la descentralización (entrenamiento centralizado con verificación on-chain) o sacrifican el rendimiento (consenso lento esperando pruebas de fraude). El PoW basado en logits de Ambient ofrece ambos: entrenamiento descentralizado con verificación casi instantánea.

Incentivos Económicos: Minar Modelos de IA como Bloques de Bitcoin

El modelo económico de Ambient refleja el de Bitcoin: recompensas de bloque predecibles + comisiones de transacción. Pero en lugar de minar bloques vacíos, los mineros producen resultados de IA que las aplicaciones pueden consumir.

Así es como funciona la estructura de incentivos:

Recompensas basadas en la inflación: Los primeros mineros reciben subsidios de bloque (tokens recién acuñados) por contribuir a la inferencia, el ajuste fino o el entrenamiento de IA. Al igual que el programa de halving de Bitcoin, los subsidios disminuyen con el tiempo, lo que garantiza la escasez a largo plazo.

Comisiones basadas en transacciones: Las aplicaciones pagan por servicios de IA: solicitudes de inferencia, ajuste fino de modelos o acceso a pesos entrenados. Estas comisiones van a los mineros que realizaron el trabajo, creando un modelo de ingresos sostenible a medida que disminuyen los subsidios.

Staking de reputación: Para evitar ataques Sybil (mineros que envían trabajos de baja calidad para reclamar recompensas), Ambient introduce la reputación en staking. Los mineros bloquean tokens para participar; producir logits inválidos resulta en un slashing (recorte de fondos). Esto alinea los incentivos: los mineros maximizan las ganancias generando resultados de IA precisos y útiles en lugar de intentar engañar al sistema.

Accesibilidad de hardware modesta: A diferencia de Bitcoin, donde dominan las granjas de ASICs, el sharding de PETALS de Ambient permite la participación con GPUs de consumo. Un minero con una sola RTX 4090 (24 GB de VRAM, ~ $ 1,600) puede contribuir al entrenamiento de modelos de 600 mil millones de parámetros al poseer un shard (fragmento). Esto democratiza el acceso, sin necesidad de centros de datos de millones de dólares.

Este modelo resuelve un problema crítico en la IA descentralizada: el problema del polizón (free-rider). En las cadenas PoS tradicionales, los validadores hacen staking de capital pero no contribuyen con cómputo. En Ambient, los mineros contribuyen con trabajo de IA real, asegurando que la utilidad de la red crezca proporcionalmente a su presupuesto de seguridad.

El sector de los agentes de IA de $ 27.000 millones: Por qué 2026 es el punto de inflexión

El cronograma de Ambient se alinea con las tendencias más amplias del mercado. El sector cripto de agentes de IA está valorado en $ 27.000 millones, impulsado por programas autónomos que gestionan activos on-chain, ejecutan operaciones y se coordinan a través de protocolos.

Pero los agentes actuales se enfrentan a un problema de confianza: la mayoría depende de API de IA centralizadas (OpenAI, Anthropic, Google). Si un agente que gestiona $ 10 millones en posiciones DeFi utiliza GPT-4 para tomar decisiones, los usuarios no tienen ninguna garantía de que el modelo no haya sido manipulado, censurado o sesgado. No hay un rastro de auditoría que demuestre que el agente activo de forma autónoma.

Ambient resuelve esto con la verificación on-chain. Cada inferencia de IA se registra en la blockchain, con logits que prueban el modelo exacto y la entrada utilizada. Las aplicaciones pueden:

Auditar las decisiones de los agentes: Una DAO podría verificar que su agente de gestión de tesorería utilizó un modelo específico aprobado por la comunidad, y no una versión modificada en secreto.

Aplicar el cumplimiento: Los protocolos DeFi regulados podrían exigir que los agentes utilicen modelos con barandillas de seguridad verificadas, demostrables on-chain.

Habilitar mercados de IA: Los desarrolladores podrían vender modelos ajustados como NFTs, con Ambient proporcionando pruebas criptográficas de los datos de entrenamiento y los pesos.

Esto posiciona a Ambient como infraestructura para la próxima ola de agentes autónomos. A medida que 2026 surge como el punto de giro donde "la IA, las blockchains y los pagos convergen en un único internet auto-coordinado", la capa de IA verificable de Ambient se convierte en una pieza crítica de infraestructura.

Riesgos técnicos y preguntas abiertas

La visión de Ambient es ambiciosa, pero varios desafíos técnicos siguen sin resolverse:

Determinismo y deriva de punto flotante: Los modelos de IA utilizan aritmética de punto flotante, que no es perfectamente determinista entre diferentes hardwares. Un modelo que se ejecuta en una NVIDIA A100 podría producir logits ligeramente diferentes a los del mismo modelo en una AMD MI250. Si los validadores rechazan bloques debido a una deriva numérica menor, la red se vuelve inestable. Ambient necesitará límites de tolerancia estrictos, pero si son demasiado estrictos, los mineros con hardware diferente serán penalizados injustamente.

Actualizaciones de modelos y control de versiones: Si Ambient entrena un modelo global de forma colaborativa, ¿cómo gestiona las actualizaciones? En Bitcoin, todos los nodos ejecutan reglas de consenso idénticas. En Ambient, los mineros ajustan los modelos continuamente. Si la mitad de la red se actualiza a la versión 2.0 y la otra mitad se queda en la 1.9, la verificación se rompe. El libro blanco no detalla cómo funcionan el control de versiones de los modelos y la compatibilidad con versiones anteriores.

Diversidad de prompts y estandarización del trabajo: El PoW de Bitcoin es uniforme: cada minero resuelve el mismo tipo de acertijo. El PoW de Ambient varía: algunos mineros responden preguntas de matemáticas, otros escriben código y otros resumen documentos. ¿Cómo comparan los validadores el "valor" de diferentes tareas? Si un minero genera 10.000 tokens de galimatías (fácil) y otro ajusta un modelo en un conjunto de datos difícil (costoso), ¿quién recibe más recompensa? Ambient necesita un algoritmo de ajuste de dificultad para el trabajo de IA, análogo a la dificultad de hash de Bitcoin, pero medir la "dificultad de inferencia" no es trivial.

Latencia en el entrenamiento distribuido: El fragmentado al estilo PETALS funciona bien para la inferencia (procesamiento secuencial de capas), pero el entrenamiento requiere retropropagación: gradientes fluyendo hacia atrás a través de la red. Si las capas se distribuyen entre nodos con latencia de red variable, las actualizaciones de gradientes se convierten en cuellos de botella. Ambient afirma mejoras de rendimiento de 10 ×, pero el rendimiento en el mundo real depende de la topología de la red y la distribución de los mineros.

Riesgos de centralización en el alojamiento de modelos: Si solo unos pocos nodos pueden permitirse alojar los fragmentos de modelos más valiosos (por ejemplo, las capas finales de un modelo de 600 mil millones de parámetros), obtienen una influencia desproporcionada. Los validadores podrían enrutar preferentemente el trabajo a nodos bien conectados, recreando la centralización de los centros de datos en una red supuestamente descentralizada.

Estos no son fallos fatales; son desafíos de ingeniería que enfrenta todo proyecto de blockchain e IA. Pero el lanzamiento de la testnet de Ambient en el Q2 / Q3 de 2025 revelará si la teoría se sostiene en condiciones reales.

Lo que viene a continuación: Testnet, Mainnet y el final del juego de la AGI

La hoja de ruta de Ambient apunta a un lanzamiento de la testnet en el Q2 / Q3 de 2025, con la mainnet a continuación en 2026. La ronda semilla de $ 7,2 millones de a16z CSX, Delphi Digital y Amber Group proporciona capital para el desarrollo principal, pero el éxito a largo plazo del proyecto depende de la adopción del ecosistema.

Hitos clave a seguir:

Participación en la minería de la testnet: ¿Cuántos mineros se unen a la red? Si Ambient atrae a miles de propietarios de GPUs (como la minería temprana de Ethereum), demuestra que el modelo económico funciona. Si solo un puñado de entidades mina, indica riesgos de centralización.

Benchmarks de rendimiento del modelo: ¿Pueden los modelos entrenados por Ambient competir con OpenAI o Anthropic? Si un modelo descentralizado de 600 mil millones de parámetros alcanza una calidad de nivel GPT-4, valida todo el enfoque. Si el rendimiento se queda significativamente atrás, los desarrolladores seguirán usando API centralizadas.

Integraciones de aplicaciones: ¿Qué protocolos DeFi, DAOs o agentes de IA construyen sobre Ambient? La propuesta de valor solo se materializa si las aplicaciones reales consumen inferencia de IA on-chain. Los primeros casos de uso podrían incluir:

  • Agentes de trading autónomos con lógica de decisión demostrable
  • Moderación de contenido descentralizada (modelos de IA que filtran publicaciones, auditables on-chain)
  • Oráculos de IA verificables (predicciones de precios on-chain o análisis de sentimiento)

Interoperabilidad con Ethereum y Cosmos: Ambient es un fork de Solana, pero la economía de los agentes de IA abarca múltiples cadenas. Los puentes hacia Ethereum (para DeFi) y Cosmos (para cadenas de IA conectadas por IBC como ASI) determinarán si Ambient se convierte en un silo o en un centro neurálgico.

El objetivo final es ambicioso: entrenar una AGI descentralizada donde ninguna entidad individual controle el modelo. Si miles de mineros independientes entrenan colaborativamente un sistema superinteligente, con pruebas criptográficas de cada paso del entrenamiento, representaría el primer camino verdaderamente abierto y auditable hacia la AGI.

Si Ambient logra esto o se convierte en otro proyecto cripto con promesas excesivas depende de la ejecución. Pero la innovación principal —reemplazar los acertijos criptográficos arbitrarios con trabajo de IA verificable— es un avance genuino. Si el proof-of-work puede ser productivo en lugar de derrochador, Ambient será el primero en demostrarlo.

El cambio de paradigma de Proof - of - Logits

La recaudación de $ 7,2 millones de Ambient no es solo otra ronda de financiación cripto . Es una apuesta a que el consenso de blockchain y el entrenamiento de IA pueden fusionarse en un único sistema alineado económicamente . Las implicaciones repercuten mucho más allá de Ambient :

Si la verificación basada en logits funciona , otras cadenas la adoptarán . Ethereum podría introducir PoL como una alternativa a PoS , recompensando a los validadores que contribuyan con trabajo de IA en lugar de simplemente hacer staking de ETH . Bitcoin podría realizar un fork para utilizar computación útil en lugar de hashes SHA - 256 ( aunque los maximalistas de Bitcoin nunca aceptarían esto ) .

Si el entrenamiento descentralizado logra un rendimiento competitivo , OpenAI y Google perderán sus ventajas competitivas ( moats ) . Un mundo en el que cualquier persona con una GPU pueda contribuir al desarrollo de la AGI , ganando tokens por su trabajo , interrumpe fundamentalmente el oligopolio centralizado de la IA .

Si la verificación de IA on - chain se convierte en un estándar , los agentes autónomos ganarán credibilidad . En lugar de confiar en APIs de caja negra , los usuarios verifican modelos y prompts exactos on - chain . Esto desbloquea DeFi regulado , gobernanza algorítmica y contratos legales impulsados por IA .

Ambient no tiene garantizada la victoria . Pero es el intento técnicamente más creíble hasta la fecha para hacer que el proof - of - work sea productivo , descentralizar el entrenamiento de IA y alinear la seguridad de la blockchain con el progreso de la civilización . El lanzamiento de la testnet mostrará si la teoría se encuentra con la realidad — o si proof - of - logits se une al cementerio de ambiciosos experimentos de consenso .

De cualquier manera , la carrera para entrenar AGI on - chain es ahora innegablemente real . Y Ambient acaba de poner $ 7,2 millones en la línea de salida .


Fuentes :

Gensyn's Judge: Cómo la reproducibilidad exacta a nivel de bits está terminando con la era de las APIs de IA opacas

· 23 min de lectura
Dora Noda
Software Engineer

Cada vez que consultas a ChatGPT, Claude o Gemini, estás confiando en una caja negra invisible. ¿La versión del modelo? Desconocida. ¿Los pesos exactos? Propietarios. ¿Si el resultado fue generado por el modelo que crees que estás usando, o por una variante actualizada silenciosamente? Imposible de verificar. Para los usuarios casuales que preguntan por recetas o curiosidades, esta opacidad es simplemente molesta. Para la toma de decisiones de IA de alto riesgo —algoritmos de trading financiero, diagnósticos médicos, análisis de contratos legales— es una crisis fundamental de confianza.

Judge de Gensyn, lanzado a finales de 2025 y entrando en producción en 2026, ofrece una alternativa radical: evaluación de IA criptográficamente verificable donde cada inferencia es reproducible hasta el último bit. En lugar de confiar en que OpenAI o Anthropic sirvan el modelo correcto, Judge permite que cualquiera verifique que un modelo de IA específico y acordado previamente se ejecutó de forma determinista contra entradas del mundo real, con pruebas criptográficas que garantizan que los resultados no pueden ser falsificados.

El avance técnico es Verde, el sistema de verificación de Gensyn que elimina el no determinismo de punto flotante, la pesadilla de la reproducibilidad de la IA. Al imponer una computación exacta a nivel de bits en todos los dispositivos, Verde asegura que ejecutar el mismo modelo en una NVIDIA A100 en Londres y en una AMD MI250 en Tokio produzca resultados idénticos, demostrables on-chain. Esto desbloquea la IA verificable para las finanzas descentralizadas, los agentes autónomos y cualquier aplicación donde la transparencia no sea opcional, sino existencial.

El problema de las API opacas: Confianza sin verificación

La industria de la IA funciona con API. Los desarrolladores integran GPT-4 de OpenAI, Claude de Anthropic o Gemini de Google a través de endpoints REST, enviando prompts y recibiendo respuestas. Pero estas API son fundamentalmente opacas:

Incertidumbre de versión: Cuando llamas a gpt-4, ¿qué versión exacta estoy recibiendo? ¿GPT-4-0314? ¿GPT-4-0613? ¿Una variante actualizada silenciosamente? Los proveedores despliegan parches con frecuencia sin anuncios públicos, cambiando el comportamiento del modelo de la noche a la mañana.

Sin rastro de auditoría: Las respuestas de la API no incluyen ninguna prueba criptográfica de qué modelo las generó. Si OpenAI sirve una variante censurada o sesgada para geografías o clientes específicos, los usuarios no tienen forma de detectarlo.

Degradación silenciosa: Los proveedores pueden "lobotomizar" los modelos para reducir costos, degradando la calidad de la inferencia mientras mantienen el mismo contrato de API. Los usuarios informan que GPT-4 se vuelve "más tonto" con el tiempo, pero sin un control de versiones transparente, tales afirmaciones siguen siendo anecdóticas.

Resultados no deterministas: Incluso consultar el mismo modelo dos veces con entradas idénticas puede arrojar resultados diferentes debido a la configuración de temperatura, el procesamiento por lotes (batching) o los errores de redondeo de punto flotante a nivel de hardware. Esto hace que la auditoría sea imposible: ¿cómo se verifica la corrección cuando los resultados no son reproducibles?

Para aplicaciones casuales, estos problemas son inconvenientes. Para la toma de decisiones de alto riesgo, son bloqueadores. Considera lo siguiente:

Trading algorítmico: Un fondo de cobertura despliega un agente de IA que gestiona 50 millones de dólares en posiciones DeFi. El agente confía en GPT-4 para analizar el sentimiento del mercado a partir de publicaciones en X. Si el modelo se actualiza silenciosamente a mitad de la sesión de trading, las puntuaciones de sentimiento cambian de forma impredecible, provocando liquidaciones no deseadas. El fondo no tiene pruebas de que el modelo se comportó mal; los registros de OpenAI no son auditables públicamente.

Diagnósticos médicos: Un hospital utiliza un modelo de IA para recomendar tratamientos contra el cáncer. Las regulaciones exigen que los médicos documenten los procesos de toma de decisiones. Pero si la versión del modelo de IA no se puede verificar, el rastro de auditoría está incompleto. Una demanda por negligencia médica podría depender de demostrar qué modelo generó la recomendación, algo imposible con las API opacas.

Gobernanza de DAO: Una organización descentralizada utiliza un agente de IA para votar sobre propuestas de tesorería. Los miembros de la comunidad exigen pruebas de que el agente utilizó el modelo aprobado, no una variante manipulada que favorezca resultados específicos. Sin verificación criptográfica, el voto carece de legitimidad.

Esta es la brecha de confianza a la que se dirige Gensyn: a medida que la IA se integra en la toma de decisiones críticas, la incapacidad de verificar la autenticidad y el comportamiento del modelo se convierte en un "bloqueador fundamental para desplegar IA agéntica en entornos de alto riesgo".

Judge: El protocolo de evaluación de IA verificable

Judge resuelve el problema de la opacidad mediante la ejecución de modelos de IA deterministas y acordados previamente contra entradas del mundo real, y consignando los resultados en una blockchain donde cualquiera puede desafiarlos. Así es como funciona el protocolo:

1. Compromiso del modelo: Los participantes se ponen de acuerdo sobre un modelo de IA: su arquitectura, pesos y configuración de inferencia. Este modelo se hashea y se registra on-chain. El hash sirve como una huella digital criptográfica: cualquier desviación del modelo acordado produce un hash diferente.

2. Ejecución determinista: Judge ejecuta el modelo utilizando el Runtime Reproducible de Gensyn, que garantiza una reproducibilidad exacta a nivel de bits en todos los dispositivos. Esto elimina el no determinismo de punto flotante, una innovación crítica que exploraremos en breve.

3. Compromiso público: Después de la inferencia, Judge publica el resultado (o un hash del mismo) on-chain. Esto crea un registro permanente y auditable de lo que produjo el modelo para una entrada determinada.

4. Período de desafío: Cualquiera puede desafiar el resultado volviendo a ejecutar el modelo de forma independiente. Si su resultado difiere, presentan una prueba de fraude. El mecanismo de delegación arbitrada de Verde señala el operador exacto en el grafo computacional donde los resultados divergen.

5. Slashing por fraude: Si un desafiante demuestra que Judge produjo resultados incorrectos, el ejecutor original es penalizado (slashing de tokens en staking). Esto alinea los incentivos económicos: los ejecutores maximizan las ganancias ejecutando los modelos correctamente.

Judge transforma la evaluación de la IA de "confiar en el proveedor de la API" a "verificar la prueba criptográfica". El comportamiento del modelo es público, auditable y exigible; ya no está oculto detrás de endpoints propietarios.

Verde: Eliminando el no determinismo de punto flotante

El principal desafío técnico en la IA verificable es el determinismo. Las redes neuronales realizan miles de millones de operaciones de punto flotante durante la inferencia. En las GPU modernas, estas operaciones no son perfectamente reproducibles:

No asociatividad: La suma de punto flotante no es asociativa. (a + b) + c puede arrojar un resultado diferente al de a + (b + c) debido a los errores de redondeo. Las GPU paralizan las sumas en miles de núcleos, y el orden en que se acumulan las sumas parciales varía según el hardware y la versión del controlador.

Variabilidad en la programación de kernels: Los kernels de GPU (como la multiplicación de matrices o la atención) pueden ejecutarse en diferentes órdenes según la carga de trabajo, las optimizaciones del controlador o la arquitectura del hardware. Incluso ejecutar el mismo modelo en la misma GPU dos veces puede dar resultados diferentes si la programación del kernel difiere.

Dependencia del tamaño de lote: La investigación ha descubierto que la inferencia de LLM no es determinista a nivel de sistema porque el resultado depende del tamaño del lote (batch size). Muchos kernels (matmul, RMSNorm, atención) cambian la salida numérica según cuántas muestras se procesen juntas; una inferencia con un tamaño de lote de 1 produce valores diferentes a los de la misma entrada en un lote de 8.

Estos problemas hacen que los modelos de IA estándar no sean adecuados para la verificación en blockchain. Si dos validadores vuelven a ejecutar la misma inferencia y obtienen resultados ligeramente diferentes, ¿quién tiene razón? Sin determinismo, el consenso es imposible.

Verde soluciona esto con RepOps (Reproducible Operators), una biblioteca que elimina el no determinismo del hardware al controlar el orden de las operaciones de punto flotante en todos los dispositivos. Así es como funciona:

Órdenes de reducción canónicos: RepOps impone un orden determinista para sumar resultados parciales en operaciones como la multiplicación de matrices. En lugar de dejar que el programador de la GPU decida, RepOps especifica explícitamente: "sumar la columna 0, luego la columna 1, luego la columna 2..." en todo el hardware. Esto asegura que (a + b) + c se compute siempre en la misma secuencia.

Kernels de CUDA personalizados: Gensyn desarrolló kernels optimizados que priorizan la reproducibilidad sobre la velocidad bruta. Las multiplicaciones de matrices de RepOps incurren en una sobrecarga de menos del 30% en comparación con cuBLAS estándar, un intercambio razonable a cambio del determinismo.

Fijación de controladores y versiones: Verde utiliza controladores de GPU con versiones fijas y configuraciones canónicas, lo que garantiza que el mismo modelo ejecutado en diferentes hardwares produzca salidas idénticas bit a bit. Un modelo que se ejecuta en una NVIDIA A100 en un centro de datos coincide con la salida de una AMD MI250 en otro, bit por bit.

Este es el avance que permite la verificación de Judge: la reproducibilidad exacta a nivel de bits significa que los validadores pueden confirmar los resultados de forma independiente sin confiar en los ejecutores. Si el hash coincide, la inferencia es correcta; es matemáticamente demostrable.

Delegación Arbitrada: Verificación Eficiente sin Recomputación Completa

Incluso con una ejecución determinista, verificar la inferencia de IA de forma ingenua es costoso. Un modelo de 70 mil millones de parámetros que genera 1,000 tokens podría requerir 10 horas de GPU. Si los validadores deben volver a ejecutar cada inferencia para verificar la corrección, el costo de verificación iguala al costo de ejecución, lo que anula el propósito de la descentralización.

El mecanismo de delegación arbitrada de Verde hace que la verificación sea exponencialmente más económica:

Múltiples ejecutores no confiables: En lugar de un solo ejecutor, Judge asigna tareas a múltiples proveedores independientes. Cada uno realiza la misma inferencia y envía los resultados.

El desacuerdo activa una investigación: Si todos los ejecutores están de acuerdo, se acepta el resultado y no se necesita más verificación. Si los resultados difieren, Verde inicia un juego de desafío.

Búsqueda binaria sobre el grafo de computación: Verde no vuelve a ejecutar toda la inferencia. En su lugar, realiza una búsqueda binaria sobre el grafo computacional del modelo para encontrar el primer operador donde los resultados divergen. Esto señala la capa exacta (por ejemplo, "capa de atención 47, cabezal 8") que causa la discrepancia.

Cómputo mínimo del árbitro: Un árbitro (que puede ser un contrato inteligente o un validador con capacidad de cómputo limitada) verifica solo el operador en disputa, no todo el paso hacia adelante (forward pass). Para un modelo de 70B de parámetros con 80 capas, esto reduce la verificación a comprobar unas 7 capas (log₂ 80) en el peor de los casos.

Este enfoque es más de un 1,350% más eficiente que la replicación ingenua (donde cada validador vuelve a ejecutar todo). Gensyn combina pruebas criptográficas, teoría de juegos y procesos optimizados para garantizar la ejecución correcta sin computación redundante.

El resultado: Judge puede verificar cargas de trabajo de IA a escala, permitiendo redes de inferencia descentralizadas donde miles de nodos no confiables aportan cómputo, y los ejecutores deshonestos son detectados y penalizados.

Toma de Decisiones de IA de Alto Riesgo: Por qué la Transparencia es Importante

El mercado objetivo de Judge no son los chatbots casuales, sino aplicaciones donde la verificabilidad no es algo deseable, sino un requisito regulatorio o económico. Estos son escenarios donde las API opacas fallan catastróficamente:

Finanzas descentralizadas (DeFi): Los agentes de trading autónomos gestionan miles de millones en activos. Si un agente utiliza un modelo de IA para decidir cuándo reequilibrar carteras, los usuarios necesitan pruebas de que el modelo no fue manipulado. Judge permite la verificación on-chain: el agente se compromete con un hash de modelo específico, ejecuta operaciones basadas en sus salidas y cualquiera puede desafiar la lógica de decisión. Esta transparencia evita los rug pulls (fraudes de salida) donde los agentes maliciosos afirman que "la IA me dijo que liquidara" sin evidencia.

Cumplimiento normativo: Las instituciones financieras que despliegan IA para la calificación crediticia, la detección de fraudes o la lucha contra el lavado de dinero (AML) se enfrentan a auditorías. Los reguladores exigen explicaciones: "¿Por qué el modelo marcó esta transacción?". Las API opacas no proporcionan una pista de auditoría. Judge crea un registro inmutable de la versión del modelo, las entradas y las salidas, satisfaciendo los requisitos de cumplimiento.

Gobernanza algorítmica: Las organizaciones autónomas descentralizadas (DAO) utilizan agentes de IA para proponer o votar decisiones de gobernanza. Los miembros de la comunidad deben verificar que el agente utilizó el modelo aprobado, no una variante hackeada. Con Judge, la DAO codifica el hash del modelo en su contrato inteligente, y cada decisión incluye una prueba criptográfica de corrección.

IA médica y legal: Los sistemas sanitarios y legales requieren rendición de cuentas. Un médico que diagnostica cáncer con ayuda de IA necesita documentar la versión exacta del modelo utilizado. Un abogado que redacta contratos con IA debe demostrar que el resultado provino de un modelo examinado y sin sesgos. La pista de auditoría on-chain de Judge proporciona esta evidencia.

Mercados de predicción y oráculos: Proyectos como Polymarket utilizan IA para resolver los resultados de las apuestas (por ejemplo, "¿Sucederá este evento?"). Si la resolución depende de un modelo de IA que analiza artículos de noticias, los participantes necesitan pruebas de que el modelo no fue manipulado. Judge verifica la inferencia de IA del oráculo, evitando disputas.

En cada caso, el hilo común es que la confianza sin transparencia es insuficiente. Como señala VeritasChain, los sistemas de IA necesitan "registradores de vuelo criptográficos": registros inmutables que demuestren lo que sucedió cuando surgen disputas.

La alternativa de prueba de conocimiento cero: comparando Verde y ZKML

Judge no es el único enfoque para la IA verificable. El aprendizaje automático de conocimiento cero (ZKML) logra objetivos similares utilizando zk-SNARKs: pruebas criptográficas de que un cálculo se realizó correctamente sin revelar las entradas ni los pesos.

¿Cómo se compara Verde con ZKML?

Costo de verificación: ZKML requiere ~ 1,000 × más cómputo que la inferencia original para generar pruebas (estimaciones de investigación). Un modelo de 70 B - parámetros que necesite 10 horas de GPU para la inferencia podría requerir 10,000 horas de GPU para probarse. La delegación arbitrada de Verde es logarítmica: verificar ~ 7 capas en lugar de 80 es una reducción de 10 ×, no de 1,000 ×.

Complejidad del probador: ZKML exige hardware especializado (como ASICs personalizados para circuitos zk-SNARK) para generar pruebas de manera eficiente. Verde funciona en GPUs comerciales — cualquier minero con una PC para juegos puede participar.

Compensaciones de privacidad: La fortaleza de ZKML es la privacidad — las pruebas no revelan nada sobre las entradas o los pesos del modelo. La ejecución determinante de Verde es transparente: las entradas y salidas son públicas (aunque los pesos pueden estar encriptados). Para la toma de decisiones de alto riesgo, la transparencia suele ser deseable. Una DAO que vota sobre la asignación de la tesorería quiere pistas de auditoría públicas, no pruebas ocultas.

Alcance de la prueba: ZKML está prácticamente limitado a la inferencia — probar el entrenamiento es inviable con los costos computacionales actuales. Verde admite tanto la verificación de inferencia como la de entrenamiento (el protocolo más amplio de Gensyn verifica el entrenamiento distribuido).

Adopción en el mundo real: Los proyectos de ZKML como Modulus Labs han logrado avances (verificando modelos de 18 M - parámetros en cadena), pero siguen limitados a modelos más pequeños. El tiempo de ejecución determinante de Verde maneja modelos de más de 70 B + parámetros en producción.

ZKML destaca donde la privacidad es primordial — como al verificar la autenticación biométrica (Worldcoin) sin exponer los escaneos de iris. Verde destaca donde la transparencia es el objetivo — demostrar que un modelo público específico se ejecutó correctamente. Ambos enfoques son complementarios, no competitivos.

El ecosistema Gensyn: de Judge al entrenamiento descentralizado

Judge es un componente de la visión más amplia de Gensyn: una red descentralizada para el cómputo de aprendizaje automático. El protocolo incluye:

Capa de ejecución: Ejecución consistente de ML a través de hardware heterogéneo (GPUs de consumo, clústeres empresariales, dispositivos de borde). Gensyn estándariza las cargas de trabajo de inferencia y entrenamiento, asegurando la compatibilidad.

Capa de verificación (Verde): Verificación sin confianza utilizando delegación arbitrada. Los ejecutores deshonestos son detectados y penalizados.

Comunicación peer-to-peer: Distribución de la carga de trabajo entre dispositivos sin coordinación centralizada. Los mineros reciben tareas, las ejecutan y envían las pruebas directamente a la cadena de bloques.

Coordinación descentralizada: Los contratos inteligentes en un rollup de Ethereum identifican a los participantes, asignan tareas y procesan los pagos sin necesidad de permisos.

La red de prueba pública de Gensyn se lanzó en marzo de 2025, con la red principal planificada para 2026. La venta pública del token $ AI ocurrió en diciembre de 2025, estableciendo incentivos económicos para mineros y validadores.

Judge encaja en este ecosistema como la capa de evaluación: mientras el protocolo central de Gensyn maneja el entrenamiento y la inferencia, Judge asegura que esos resultados sean verificables. Esto crea un volante de inercia:

Los desarrolladores entrenan modelos en la red descentralizada de Gensyn (más barato que AWS debido a que las GPUs de consumo infrautilizadas aportan cómputo).

Los modelos se despliegan con Judge garantizando la integridad de la evaluación. Las aplicaciones consumen inferencia a través de las APIs de Gensyn, pero a diferencia de OpenAI, cada resultado incluye una prueba criptográfica.

Los validadores ganan tarifas al verificar las pruebas y detectar fraudes, alineando los incentivos económicos con la seguridad de la red.

La confianza escala a medida que más aplicaciones adoptan la IA verificable, reduciendo la dependencia de proveedores centralizados.

El objetivo final: entrenamiento e inferencia de IA que sea demostrablemente correcta, descentralizada y accesible para cualquiera — no solo para las grandes tecnológicas.

Desafíos y preguntas abiertas

El enfoque de Judge es innovador, pero persisten varios desafíos:

Sobrecarga de rendimiento: La ralentización del 30 % de RepOps es aceptable para la verificación, pero si cada inferencia debe ejecutarse de forma determinante, las aplicaciones sensibles a la latencia (trading en tiempo real, vehículos autónomos) podrían preferir alternativas más rápidas y no verificables. La hoja de ruta de Gensyn probablemente incluye optimizar RepOps aún más — pero existe una compensación fundamental entre velocidad y determinismo.

Fragmentación de versiones de controladores: Verde asume controladores con versiones fijas, pero los fabricantes de GPU lanzan actualizaciones constantemente. Si algunos mineros usan CUDA 12.4 y otros usan 12.5, la reproducibilidad bit a bit se rompe. Gensyn debe imponer una gestión de versiones estricta — complicando la incorporación de mineros.

Secreto de los pesos del modelo: La transparencia de Judge es una ventaja para los modelos públicos, pero un inconveniente para los propietarios. Si un fondo de cobertura entrena un modelo de trading valioso, desplegarlo en Judge expone los pesos a los competidores (a través del compromiso en cadena). Las alternativas basadas en ZKML podrían ser preferidas para modelos secretos — lo que sugiere que Judge se dirige a aplicaciones de IA abiertas o semiabiertas.

Latencia en la resolución de disputas: Si un desafiante alega fraude, resolver la disputa mediante búsqueda binaria requiere múltiples transacciones en cadena (cada ronda estrecha el espacio de búsqueda). Las aplicaciones de alta frecuencia no pueden esperar horas por la finalidad. Gensyn podría introducir la verificación optimista (asumir la corrección a menos que sea desafiada dentro de una ventana) para reducir la latencia.

Resistencia a Sybil en la delegación arbitrada: Si varios ejecutores deben estar de acuerdo, ¿qué impide que una sola entidad controle a todos los ejecutores a través de identidades Sybil? Gensyn probablemente utiliza una selección ponderada por participación (se eligen preferentemente validadores de alta reputación) además del slashing para disuadir la colusión — pero los umbrales económicos deben calibrarse cuidadosamente.

Estos no son obstáculos insuperables — son desafíos de ingeniería. La innovación principal (IA determinante + verificación criptográfica) es sólida. Los detalles de ejecución madurarán a medida que la red de prueba pase a la red principal.

El camino hacia la IA verificable: Vías de adopción y ajuste de mercado

El éxito de Judge depende de la adopción. ¿Qué aplicaciones implementarán primero la IA verificable?

Protocolos DeFi con agentes autónomos: Las DAO de Aave, Compound o Uniswap podrían integrar agentes verificados por Judge para la gestión de tesorería. La comunidad vota para aprobar el hash de un modelo, y todas las decisiones de los agentes incluyen pruebas. Esta transparencia genera confianza, algo crítico para la legitimidad de DeFi.

Mercados de predicción y oráculos: Plataformas como Polymarket o Chainlink podrían usar Judge para resolver apuestas o entregar feeds de precios. Los modelos de IA que analizan el sentimiento, las noticias o la actividad on-chain producirían resultados verificables, eliminando disputas sobre la manipulación de oráculos.

Identidad descentralizada y KYC: Los proyectos que requieren verificación de identidad basada en IA (estimación de edad a partir de selfies, verificaciones de autenticidad de documentos) se benefician de la pista de auditoría de Judge. Los reguladores aceptan pruebas criptográficas de cumplimiento sin tener que confiar en proveedores de identidad centralizados.

Moderación de contenido para redes sociales: Las redes sociales descentralizadas (Farcaster, Lens Protocol) podrían implementar moderadores de IA verificados por Judge. Los miembros de la comunidad verifican que el modelo de moderación no esté sesgado ni censurado, garantizando la neutralidad de la plataforma.

Plataformas de IA como servicio (AI-as-a-Service): Los desarrolladores que crean aplicaciones de IA pueden ofrecer "inferencia verificable" como una función premium. Los usuarios pagan un extra por las pruebas, diferenciando los servicios de las alternativas opacas.

El punto común: aplicaciones donde la confianza es costosa (debido a la regulación, la descentralización o los altos riesgos) y el costo de verificación es aceptable (en comparación con el valor de la certeza).

Judge no reemplazará a OpenAI para los chatbots de consumo; a los usuarios no les importa si GPT-4 es verificable cuando piden ideas de recetas. Pero para algoritmos financieros, herramientas médicas y sistemas de gobernanza, la IA verificable es el futuro.

La verificabilidad como el nuevo estándar

Judge de Gensyn representa un cambio de paradigma: la evaluación de la IA está pasando de "confiar en el proveedor" a "verificar la prueba". La base técnica —reproducibilidad exacta a nivel de bits a través de Verde, verificación eficiente mediante delegación arbitrada y pistas de auditoría on-chain— hace que esta transición sea práctica, no solo aspiracional.

Las implicaciones resuenan mucho más allá de Gensyn. Si la IA verificable se convierte en un estándar, los proveedores centralizados pierden sus fosos competitivos (moats). La propuesta de valor de OpenAI no son solo las capacidades de GPT-4, es la conveniencia de no gestionar la infraestructura. Pero si Gensyn demuestra que la IA descentralizada puede igualar el rendimiento centralizado con la verificabilidad añadida, los desarrolladores no tendrán motivos para quedar atrapados en APIs propietarias.

La carrera ha comenzado. Los proyectos de ZKML (Modulus Labs, el sistema biométrico de Worldcoin) apuestan por las pruebas de conocimiento cero. Los entornos de ejecución deterministas (Verde de Gensyn, EigenAI) apuestan por la reproducibilidad. Los enfoques optimistas (oráculos de IA en blockchain) apuestan por las pruebas de fraude. Cada camino tiene sus compensaciones, pero el destino es el mismo: sistemas de IA donde los resultados sean demostrables, no solo plausibles.

Para la toma de decisiones de alto riesgo, esto no es opcional. Los reguladores no aceptarán un "confíe en nosotros" de los proveedores de IA en aplicaciones financieras, de salud o legales. Las DAO no delegarán la gestión de tesorería a agentes de caja negra. Y a medida que los sistemas de IA autónomos se vuelvan más potoresos, el público exigirá transparencia.

Judge es el primer sistema listo para producción que cumple con esta promesa. La red de prueba (testnet) está activa. Los fundamentos criptográficos son sólidos. El mercado — $27 mil millones en criptoactivos de agentes de IA, miles de millones en activos DeFi gestionados por algoritmos y una presión regulatoria creciente — está listo.

La era de las APIs de IA opacas está terminando. La era de la inteligencia verificable está comenzando. Y Judge de Gensyn está iluminando el camino.


Fuentes:

Blacklight de Nillion entra en funcionamiento: Cómo ERC-8004 está construyendo la capa de confianza para agentes de IA autónomos

· 15 min de lectura
Dora Noda
Software Engineer

El 2 de febrero de 2026, la economía de agentes de IA dio un paso crítico hacia adelante. Nillion lanzó Blacklight, una capa de verificación que implementa el estándar ERC-8004 para resolver una de las preguntas más urgentes de la blockchain: ¿cómo confiar en un agente de IA que nunca has conocido?

La respuesta no es una simple puntuación de reputación ni un registro centralizado. Es un proceso de verificación de cinco pasos respaldado por pruebas criptográficas, auditorías programables y una red de nodos operados por la comunidad. A medida que los agentes autónomos ejecutan cada vez más operaciones, gestionan tesorerías y coordinan actividades cross-chain, Blacklight representa la infraestructura que permite la coordinación de IA trustless a escala.

El problema de confianza que los agentes de IA no pueden resolver solos

Las cifras cuentan la historia. Los agentes de IA ahora contribuyen con el 30 % del volumen de operaciones de Polymarket, gestionan estrategias de rendimiento DeFi en múltiples protocolos y ejecutan flujos de trabajo complejos de forma autónoma. Pero existe un cuello de botella fundamental: ¿cómo verifican los agentes la confiabilidad de los demás sin relaciones preexistentes?

Los sistemas tradicionales dependen de autoridades centralizadas que emiten credenciales. La promesa de la Web3 es diferente: verificación trustless a través de la criptografía y el consenso. Sin embargo, hasta el ERC-8004, no existía una forma estandarizada para que los agentes demostraran su autenticidad, rastrearan su comportamiento o validaran su lógica de toma de decisiones on-chain.

Esto no es solo un problema teórico. Como explica Davide Crapis, "ERC-8004 permite interacciones descentralizadas entre agentes de IA, establece el comercio trustless y mejora los sistemas de reputación en Ethereum". Sin él, el comercio entre agentes permanece confinado a ecosistemas cerrados o requiere supervisión manual, lo que anula el propósito de la autonomía.

ERC-8004: La infraestructura de confianza de tres registros

El estándar ERC-8004, que entró en funcionamiento en la mainnet de Ethereum el 29 de enero de 2026, establece una capa de confianza modular a través de tres registros on-chain:

Registro de Identidad (Identity Registry): Utiliza ERC-721 para proporcionar identificadores de agentes portátiles. Cada agente recibe un token no fungible que representa su identidad única on-chain, lo que permite el reconocimiento multiplataforma y evita la suplantación de identidad.

Registro de Reputación (Reputation Registry): Recopila comentarios y calificaciones estandarizados. A diferencia de los sistemas de revisión centralizados, los comentarios se registran on-chain con firmas criptográficas, creando un rastro de auditoría inmutable. Cualquiera puede rastrear este historial y crear algoritmos de reputación personalizados.

Registro de Validación (Validation Registry): Admite la verificación criptográfica y económica del trabajo de los agentes. Aquí es donde ocurren las auditorías programables: los validadores pueden volver a ejecutar cálculos, verificar pruebas de conocimiento cero o aprovechar Entornos de Ejecución Seguros (TEEs) para confirmar que un agente actuó correctamente.

La brillantez del ERC-8004 es su diseño agnóstico. Como señala la especificación técnica, el estándar admite varias técnicas de validación: "re-ejecución de tareas asegurada por participación (stake) (inspirada en sistemas como EigenLayer), verificación de pruebas de aprendizaje automático de conocimiento cero (zkML) y atestaciones de Entornos de Ejecución Seguros (TEEs)".

Esta flexibilidad es importante. Un agente de arbitraje DeFi podría usar pruebas zkML para verificar su lógica de trading sin revelar su alpha. Un agente de cadena de suministro podría usar atestaciones TEE para demostrar que accedió correctamente a datos del mundo real. Un agente de puente cross-chain podría confiar en la validación criptoeconómica con slashing para garantizar una ejecución honesta.

El proceso de verificación de cinco pasos de Blacklight

La implementación del ERC-8004 de Nillion en Blacklight añade una capa crucial: nodos de verificación operados por la comunidad. Así es como funciona el proceso:

1. Registro del Agente: Un agente registra su identidad en el Registro de Identidad, recibiendo un NFT ERC-721. Esto crea un identificador único on-chain vinculado a la clave pública del agente.

2. Inicio de la Solicitud de Verificación: Cuando un agente realiza una acción que requiere validación (por ejemplo, ejecutar una operación, transferir fondos o actualizar un estado), envía una solicitud de verificación a Blacklight.

3. Asignación de Comité: El protocolo de Blacklight asigna aleatoriamente un comité de nodos de verificación para auditar la solicitud. Estos nodos son operados por miembros de la comunidad que realizan un stake de 70,000 tokens NIL, alineando los incentivos para la integridad de la red.

4. Comprobaciones de los Nodos: Los miembros del comité vuelven a ejecutar el cálculo o validan las pruebas criptográficas. Si los validadores detectan un comportamiento incorrecto, pueden realizar un slashing del stake del agente (en sistemas que utilizan validación criptoeconómica) o marcar la identidad en el Registro de Reputación.

5. Informes On-Chain: Los resultados se publican on-chain. El Registro de Validación registra si el trabajo del agente fue verificado, creando una prueba permanente de ejecución. El Registro de Reputación se actualiza en consecuencia.

Este proceso ocurre de forma asíncrona y no bloqueante, lo que significa que los agentes no esperan a que se complete la verificación para realizar tareas rutinarias, pero las acciones de alto riesgo (grandes transferencias, operaciones cross-chain) pueden requerir una validación previa.

Auditorías programables: más allá de la confianza binaria

La característica más ambiciosa de Blacklight es la «verificación programable»: la capacidad de auditar cómo un agente toma decisiones, no solo qué hace.

Considere un agente DeFi que gestiona una tesorería. Las auditorías tradicionales verifican que los fondos se movieron correctamente. Las auditorías programables verifican:

  • Consistencia de la lógica de toma de decisiones: ¿Siguió el agente su estrategia de inversión declarada o se desvió de ella?
  • Ejecución de flujos de trabajo de varios pasos: Si se suponía que el agente debía reequilibrar carteras en tres cadenas, ¿completó todos los pasos?
  • Restricciones de seguridad: ¿Respetó el agente los límites de gas, las tolerancias de deslizamiento y los topes de exposición?

Esto es posible porque el Registro de Verificación de ERC-8004 admite sistemas de prueba arbitrarios. Un agente puede comprometerse con un algoritmo de toma de decisiones on-chain (por ejemplo, un hash de los pesos de su red neuronal o un circuito zk-SNARK que represente su lógica) y luego demostrar que cada acción se ajusta a ese algoritmo sin revelar detalles propietarios.

La hoja de ruta de Nillion apunta explícitamente a estos casos de uso: «Nillion planea expandir las capacidades de Blacklight hacia la "verificación programable", permitiendo auditorías descentralizadas de comportamientos complejos como la consistencia de la lógica de toma de decisiones de los agentes, la ejecución de flujos de trabajo de varios pasos y las restricciones de seguridad».

Esto cambia la verificación de reactiva (detectar errores después del hecho) a proactiva (imponer el comportamiento correcto por diseño).

Computación ciega: la privacidad se une a la verificación

La tecnología subyacente de Nillion, Nil Message Compute (NMC), añade una dimensión de privacidad a la verificación de agentes. A diferencia de las blockchains tradicionales donde todos los datos son públicos, la «computación ciega» de Nillion permite realizar operaciones con datos encriptados sin necesidad de desencriptarlos.

He aquí por qué esto es importante para los agentes: un agente de IA podría necesitar verificar su estrategia de trading sin revelar su «alpha» a los competidores. O demostrar que accedió correctamente a registros médicos confidenciales sin exponer los datos de los pacientes. O demostrar el cumplimiento de las restricciones regulatorias sin revelar la lógica de negocio propietaria.

El NMC de Nillion logra esto a través de la computación multipartita (MPC), donde los nodos generan colaborativamente «factores cegadores» (aleatoriedad correlacionada utilizada para encriptar datos). Como explica DAIC Capital: «Los nodos generan el recurso de red clave necesario para procesar datos —un tipo de aleatoriedad correlacionada denominada factor cegador—, y cada nodo almacena su parte del factor cegador de forma segura, distribuyendo la confianza a través de la red de una manera segura frente a la computación cuántica».

Esta arquitectura es resistente a la computación cuántica por diseño. Incluso si un ordenador cuántico rompe la criptografía de curva elíptica actual, los factores cegadores distribuidos permanecen seguros porque ningún nodo individual posee información suficiente para desencriptar los datos.

Para los agentes de IA, esto significa que la verificación no requiere sacrificar la confidencialidad. Un agente puede demostrar que ejecutó una tarea correctamente mientras mantiene privados sus métodos, fuentes de datos y lógica de toma de decisiones.

La apuesta por la infraestructura de la economía de agentes de $ 4300 millones

El lanzamiento de Blacklight se produce en un momento en que el sector de la IA y la blockchain entra en una fase de hipercrecimiento. Se proyecta que el mercado crezca de 680millones(2025)a680 millones (2025) a 4300 millones (2034) a una tasa de crecimiento anual compuesta (CAGR) del 22,9 %, mientras que el mercado más amplio de la computación confidencial alcanzará los $ 350 000 millones para 2032.

Pero Nillion no solo apuesta por la expansión del mercado; se está posicionando como una infraestructura crítica. El cuello de botella de la economía de agentes no es el cómputo ni el almacenamiento; es la confianza a escala. Como señala el informe de perspectivas de KuCoin para 2026, tres tendencias clave están remodelando la identidad de la IA y el flujo de valor:

Sistemas Agent-Wrapping-Agent (agente envuelve agente): Agentes que se coordinan con otros agentes para ejecutar tareas complejas de varios pasos. Esto requiere una identidad y verificación estandarizadas, exactamente lo que proporciona ERC-8004.

KYA (Know Your Agent - Conozca a su agente): Infraestructura financiera que exige credenciales de agentes. Los reguladores no aprobarán agentes autónomos que gestionen fondos sin pruebas de un comportamiento correcto. Las auditorías programables de Blacklight abordan esto directamente.

Nanopagos: Los agentes necesitan liquidar micropagos de manera eficiente. El protocolo de pago x402, que procesó más de 20 millones de transacciones en enero de 2026, complementa a ERC-8004 encargándose de la liquidación mientras Blacklight se encarga de la confianza.

Juntos, estos estándares alcanzaron su madurez para producción con semanas de diferencia, un avance de coordinación que señala la maduración de la infraestructura.

El futuro de Ethereum centrado en los agentes

La adopción de ERC-8004 se extiende mucho más allá de Nillion. A principios de 2026, múltiples proyectos ya han integrado el estándar:

  • Oasis Network: Implementando ERC-8004 para computación confidencial con validación basada en TEE.
  • The Graph: Soportando ERC-8004 y x402 para permitir interacciones de agentes verificables en la indexación descentralizada.
  • MetaMask: Explorando billeteras de agentes con identidad ERC-8004 integrada.
  • Coinbase: Integrando ERC-8004 para soluciones de custodia de agentes institucionales.

Esta rápida adopción refleja un cambio más amplio en la hoja de ruta de Ethereum. Vitalik Buterin ha enfatizado repetidamente que el papel de la blockchain se está convirtiendo en «simplemente la fontanería» para los agentes de IA, no la capa orientada al consumidor, sino la infraestructura de confianza que permite la coordinación autónoma.

Blacklight de Nillion acelera esta visión al hacer que la verificación sea programable, preserve la privacidad y sea descentralizada. En lugar de depender de oráculos centralizados o revisores humanos, los agentes pueden demostrar su corrección criptográficamente.

Lo que viene a continuación: Integración de la Mainnet y expansión del ecosistema

La hoja de ruta de 2026 de Nillion prioriza la compatibilidad con Ethereum y la descentralización sostenible. El puente de Ethereum se puso en marcha en febrero de 2026, seguido de contratos inteligentes nativos para staking y computación privada (blind computation).

Los miembros de la comunidad que realicen staking de 70,000 tokens NIL pueden operar nodos de verificación Blacklight, obteniendo recompensas mientras mantienen la integridad de la red. Este diseño refleja la economía de validadores de Ethereum, pero añade un rol específico de verificación.

Los próximos hitos incluyen:

  • Soporte ampliado para zkML: Integración con proyectos como Modulus Labs para verificar la inferencia de IA on-chain
  • Verificación cross-chain: Permitir que Blacklight verifique agentes que operan a través de Ethereum, Cosmos y Solana
  • Alianzas institucionales: Colaboraciones con Coinbase y Alibaba Cloud para el despliegue de agentes empresariales
  • Herramientas de cumplimiento regulatorio: Creación de marcos KYA (Know Your Agent) para la adopción de servicios financieros

Quizás lo más importante es que Nillion está desarrollando nilGPT, un chatbot de IA totalmente privado que demuestra cómo la computación ciega (blind computation) permite interacciones de agentes confidenciales. Esto no es solo una demostración; es un modelo para agentes que manejan datos sensibles en salud, finanzas y gobierno.

El objetivo final de la coordinación trustless

El lanzamiento de Blacklight marca un punto de inflexión para la economía de los agentes. Antes del ERC-8004, los agentes operaban en silos: se confiaba en ellos dentro de sus propios ecosistemas, pero no podían coordinarse a través de plataformas sin intermediarios humanos. Después del ERC-8004, los agentes pueden verificar la identidad de los demás, auditar el comportamiento mutuo y liquidar pagos de forma autónoma.

Esto desbloquea categorías de aplicaciones completamente nuevas:

  • Fondos de cobertura descentralizados: Agentes que gestionan carteras a través de múltiples cadenas, con estrategias de inversión verificables y auditorías de rendimiento transparentes
  • Cadenas de suministro autónomas: Agentes que coordinan la logística, los pagos y el cumplimiento sin supervisión centralizada
  • DAOs impulsadas por IA: Organizaciones gobernadas por agentes que votan, proponen y ejecutan basándose en una lógica de toma de decisiones verificada criptográficamente
  • Gestión de liquidez entre protocolos: Agentes que reequilibran activos a través de protocolos DeFi con restricciones de riesgo programables

¿El hilo conductor? Todos requieren una coordinación trustless: la capacidad de que los agentes trabajen juntos sin relaciones preexistentes o anclajes de confianza centralizados.

Blacklight de Nillion proporciona exactamente eso. Al combinar la infraestructura de identidad y reputación del ERC-8004 con la verificación programable y la computación ciega, crea una capa de confianza lo suficientemente escalable para la economía de billones de agentes que se vislumbra en el horizonte.

A medida que blockchain se convierte en la infraestructura básica (plumbing) para los agentes de IA y las finanzas globales, la pregunta no es si necesitamos una infraestructura de verificación, sino quién la construye y si es descentralizada o está controlada por unos pocos intermediarios. Los nodos operados por la comunidad de Blacklight y el estándar abierto defienden la primera opción.

La era de los actores autónomos on-chain ha llegado. La infraestructura está activa. La única pregunta que queda es qué se construirá sobre ella.


Fuentes:

Convergencia de IA × Web3: Cómo Blockchain se Convirtió en el Sistema Operativo para Agentes Autónomos

· 18 min de lectura
Dora Noda
Software Engineer

El 29 de enero de 2026, Ethereum lanzó el ERC-8004, un estándar que otorga a los agentes de software de IA identidades persistentes en cadena (on-chain). En pocos días, más de 24,549 agentes se registraron, y BNB Chain anunció el soporte para el protocolo. Esto no es un progreso incremental: es infraestructura para actores económicos autónomos que pueden transaccionar, coordinar y construir reputación sin intermediación humana.

Los agentes de IA no necesitan blockchain para existir. Pero necesitan blockchain para coordinarse. Para transaccionar sin necesidad de confianza a través de límites organizacionales. Para construir una reputación verificable. Para liquidar pagos de forma autónoma. Para demostrar la ejecución sin intermediarios centralizados.

La convergencia se acelera porque ambas tecnologías resuelven la debilidad crítica de la otra: la IA proporciona inteligencia y automatización, la blockchain proporciona confianza e infraestructura económica. Juntas, crean algo que ninguna de las dos logra por sí sola: sistemas autónomos que pueden participar en mercados abiertos sin requerir relaciones de confianza preexistentes.

Este artículo examina la infraestructura que hace inevitable la convergencia entre IA y Web3, desde los estándares de identidad hasta los protocolos económicos y la ejecución de modelos descentralizada. La pregunta no es si los agentes de IA operarán en blockchain, sino qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos.

ERC-8004: Infraestructura de Identidad para Agentes de IA

ERC-8004 se puso en marcha en la red principal de Ethereum el 29 de enero de 2026, estableciendo mecanismos estandarizados y sin permisos para la identidad, reputación y validación de agentes.

El protocolo resuelve un problema fundamental: cómo descubrir, elegir e interactuar con agentes a través de límites organizacionales sin confianza preexistente. Sin una infraestructura de identidad, cada interacción entre agentes requiere una intermediación centralizada: plataformas de mercado, servicios de verificación, capas de resolución de disputas. ERC-8004 hace que estos sean trustless y componibles.

Tres Registros Principales:

Registro de Identidad: Un identificador on-chain mínimo basado en ERC-721 con extensión URIStorage que resuelve al archivo de registro de un agente. Cada agente obtiene un identificador portátil y resistente a la censura. Ninguna autoridad central controla quién puede crear una identidad de agente o qué plataformas la reconocen.

Registro de Reputación: Interfaz estandarizada para publicar y obtener señales de retroalimentación. Los agentes construyen su reputación a través del historial de transacciones en cadena, tareas completadas y revisiones de contrapartes. La reputación se vuelve portátil entre plataformas en lugar de estar aislada dentro de mercados individuales.

Registro de Validación: Ganchos (hooks) genéricos para solicitar y registrar verificaciones de validadores independientes: stakers que vuelven a ejecutar trabajos, verificadores zkML que confirman la ejecución, oráculos TEE que prueban el cómputo, jueces de confianza que resuelven disputas. Los mecanismos de validación se conectan de forma modular en lugar de requerir implementaciones específicas de la plataforma.

La arquitectura crea las condiciones para mercados de agentes abiertos. En lugar de un Upwork para agentes de IA, se obtienen protocolos sin permisos donde los agentes se descubren entre sí, negocian términos, ejecutan tareas y liquidan pagos, todo sin el control de una plataforma centralizada.

El rápido anuncio de soporte de BNB Chain señala la trayectoria del estándar hacia la adopción cross-chain. La identidad de agente multicadena permite que los agentes operen a través de ecosistemas blockchain manteniendo sistemas unificados de reputación y verificación.

DeMCP: El Model Context Protocol se encuentra con la Descentralización

DeMCP se lanzó como la primera red descentralizada de Model Context Protocol, abordando la confianza y la seguridad con TEE (Entornos de Ejecución Segura) y blockchain.

El Model Context Protocol (MCP), desarrollado por Anthropic, estandariza cómo las aplicaciones proporcionan contexto a los modelos de lenguaje de gran tamaño. Piense en ello como el USB-C para aplicaciones de IA: en lugar de integraciones personalizadas para cada fuente de datos, el MCP proporciona estándares de interfaz universales.

DeMCP extiende esto a la Web3: ofreciendo acceso fluido y de pago por uso a los principales LLM como GPT-4 y Claude a través de instancias de MCP bajo demanda, todo pagado en stablecoins (USDT/USDC) y gobernado por modelos de participación en los ingresos.

La arquitectura resuelve tres problemas críticos:

Acceso: Las API de modelos de IA tradicionales requieren cuentas centralizadas, infraestructura de pagos y SDK específicos de la plataforma. DeMCP permite que los agentes autónomos accedan a los LLM a través de protocolos estandarizados, pagando en cripto sin claves de API gestionadas por humanos ni tarjetas de crédito.

Confianza: Los servicios MCP centralizados se convierten en puntos únicos de falla y vigilancia. Los nodos asegurados por TEE de DeMCP proporcionan una ejecución verificable: los agentes pueden confirmar que los modelos ejecutaron prompts específicos sin manipulación, algo crucial para decisiones financieras o cumplimiento normativo.

Composibilidad: Está surgiendo una nueva generación de infraestructura de agentes de IA basada en los protocolos MCP y A2A (Agente a Agente), diseñada específicamente para escenarios Web3, lo que permite a los agentes acceder a datos multicadena e interactuar de forma nativa con los protocolos DeFi.

El resultado: el MCP convierte a la IA en un ciudadano de primera clase de la Web3. Blockchain suministra la confianza, la coordinación y el sustrato económico. Juntos, forman un sistema operativo descentralizado donde los agentes razonan, coordinan y actúan a través de protocolos interoperables.

Los principales proyectos cripto de MCP a seguir en 2026 incluyen proveedores de infraestructura que construyen capas de coordinación de agentes, redes descentralizadas de ejecución de modelos e integraciones a nivel de protocolo que permiten a los agentes operar de forma autónoma a través de los ecosistemas Web3.

Más de 170 herramientas de agentes de Polymarket: Infraestructura en acción

El ecosistema de Polymarket creció a más de 170 herramientas de terceros en 19 categorías, convirtiéndose en una infraestructura esencial para cualquiera que se tome en serio el comercio en los mercados de predicción.

Las categorías de herramientas abarcan todo el flujo de trabajo de los agentes:

Trading Autónomo: Agentes impulsados por IA que descubren y optimizan estrategias automáticamente, integrando los mercados de predicción con el yield farming y los protocolos DeFi. Algunos agentes logran una precisión del 98% en los pronósticos a corto plazo.

Sistemas de Arbitraje: Bots automatizados que identifican discrepancias de precios entre Polymarket y otras plataformas de predicción o mercados de apuestas tradicionales, ejecutando operaciones más rápido que los operadores humanos.

Seguimiento de Ballenas (Whale Tracking): Herramientas que monitorean los movimientos de posiciones a gran escala, permitiendo a los agentes seguir o contrarrestar la actividad institucional basada en correlaciones de rendimiento histórico.

Infraestructura de Copy Trading: Plataformas que permiten a los agentes replicar estrategias de los mejores perfiles, con verificación on-chain de los historiales para evitar reclamos de rendimiento falsos.

Analítica y Feeds de Datos: Analítica de grado institucional que proporciona a los agentes profundidad de mercado, análisis de liquidez, distribuciones de probabilidad histórica y correlaciones de resultados de eventos.

Gestión de Riesgos: Dimensionamiento automático de posiciones, límites de exposición y mecanismos de stop-loss integrados directamente en la lógica de trading de los agentes.

El ecosistema valida la tesis de convergencia entre IA × Web3. Polymarket proporciona repositorios de GitHub y SDKs específicamente para el desarrollo de agentes, tratando a los actores autónomos como participantes de primera clase en la plataforma, en lugar de casos aislados o violaciones de los términos de servicio.

Las perspectivas para 2026 incluyen el posible lanzamiento del token $POLY, lo que creará nuevas dinámicas en torno a la gobernanza, las estructuras de tarifas y los incentivos del ecosistema. El CEO Shayne Coplan sugirió que podría convertirse en uno de los TGE (Eventos de Generación de Tokens) más grandes de 2026. Además, el posible lanzamiento de la propia blockchain de Polymarket (siguiendo el modelo de Hyperliquid) podría remodelar fundamentalmente la infraestructura, con miles de millones recaudados que hacen de una appchain una evolución natural.

El Stack de Infraestructura: Capas de IA × Web3

Los agentes autónomos que operan en blockchain requieren una infraestructura coordinada a través de múltiples capas:

Capa 1: Identidad y Reputación

  • Registros ERC-8004 para la identificación de agentes
  • Sistemas de reputación on-chain que rastrean el rendimiento
  • Prueba criptográfica de propiedad y autoridad de los agentes
  • Puentes de identidad cross-chain para operaciones en múltiples ecosistemas

Capa 2: Acceso y Ejecución

  • DeMCP para acceso descentralizado a LLM
  • Computación asegurada por TEE para lógica de agentes privada
  • zkML (Zero-Knowledge Machine Learning) para inferencia verificable
  • Redes de inferencia descentralizadas que distribuyen la ejecución de modelos

Capa 3: Coordinación y Comunicación

  • Protocolos A2A (Agente a Agente) para negociación directa
  • Formatos de mensajería estandarizados para la comunicación entre agentes
  • Mecanismos de descubrimiento para encontrar agentes con capacidades específicas
  • Escrow y resolución de disputas para contratos autónomos

Capa 4: Infraestructura Económica

  • Pasarelas de pago con stablecoins para liquidación transfronteriza
  • Creadores de mercado automatizados (AMM) para activos generados por agentes
  • Estructuras de tarifas programables y distribución de ingresos
  • Alineación de incentivos basada en tokens

Capa 5: Protocolos de Aplicación

  • Integraciones DeFi para la optimización autónoma del rendimiento (yield)
  • APIs de mercados de predicción para el comercio de información
  • Mercados de NFT para contenido creado por agentes
  • Marcos de participación en la gobernanza de DAOs

Este stack permite comportamientos de agentes progresivamente complejos: automatización simple (ejecución de contratos inteligentes), agentes reactivos (que responden a eventos on-chain), agentes proactivos (que inician estrategias basadas en inferencias) y agentes coordinadores (que negocian con otros actores autónomos).

La infraestructura no solo permite que los agentes de IA utilicen blockchain; convierte a blockchain en el entorno operativo natural para la actividad económica autónoma.

Por qué la IA necesita Blockchain: El problema de la confianza

Los agentes de IA enfrentan desafíos de confianza fundamentales que las arquitecturas centralizadas no pueden resolver:

Verificación: ¿Cómo se demuestra que un agente de IA ejecutó una lógica específica sin manipulación? Las APIs tradicionales no ofrecen garantías. Blockchain con atestaciones zkML o TEE crea computación verificable: prueba criptográfica de que modelos específicos procesaron entradas específicas y produjeron salidas específicas.

Reputación: ¿Cómo construyen credibilidad los agentes a través de fronteras organizacionales? Las plataformas centralizadas crean jardines cerrados: la reputación ganada en Upwork no se transfiere a Fiverr. La reputación on-chain se vuelve portátil, verificable y resistente a la manipulación mediante ataques Sybil.

Liquidación: ¿Cómo manejan los pagos los agentes autónomos sin intermediación humana? La banca tradicional requiere cuentas, KYC y autorización humana para cada transacción. Las stablecoins y los contratos inteligentes permiten una liquidación programable e instantánea con seguridad criptográfica en lugar de burocrática.

Coordinación: ¿Cómo negocian agentes de diferentes organizaciones sin intermediarios de confianza? Los negocios tradicionales requieren contratos, abogados y mecanismos de cumplimiento. Los contratos inteligentes permiten la ejecución de acuerdos sin necesidad de confianza (trustless): el código hace cumplir los términos automáticamente basándose en condiciones verificables.

Atribución: ¿Cómo se demuestra qué agente creó salidas específicas? La procedencia del contenido de IA se vuelve crítica para los derechos de autor, la responsabilidad y la distribución de ingresos. La atestación on-chain proporciona registros inalterables de creación, modificación y propiedad.

Blockchain no solo habilita estas capacidades; es la única arquitectura que las permite sin volver a introducir supuestos de confianza centralizados. La convergencia surge de una necesidad técnica, no de una narrativa especulativa.

Por qué la blockchain necesita IA: el problema de la inteligencia

La blockchain enfrenta limitaciones igualmente fundamentales que la IA aborda:

Abstracción de la complejidad: La experiencia de usuario (UX) de la blockchain sigue siendo deficiente: frases semilla, tarifas de gas, firma de transacciones. Los agentes de IA pueden abstraer la complejidad, actuando como intermediarios inteligentes que ejecutan la intención del usuario sin exponer los detalles técnicos de la implementación.

Procesamiento de información: Las blockchains proporcionan datos pero carecen de la inteligencia para interpretarlos. Los agentes de IA analizan los patrones de actividad on-chain, identifican oportunidades de arbitraje, predicen movimientos del mercado y optimizan estrategias a velocidades y escalas imposibles para los humanos.

Automatización: Los contratos inteligentes ejecutan lógica pero no pueden adaptarse a condiciones cambiantes sin una programación explícita. Los agentes de IA proporcionan una toma de decisiones dinámica, aprendiendo de los resultados y ajustando las estrategias sin requerir propuestas de gobernanza para cada cambio de parámetro.

Capacidad de descubrimiento: Los protocolos DeFi sufren de fragmentación: los usuarios deben descubrir manualmente oportunidades en cientos de plataformas. Los agentes de IA escanean, evalúan y enrutan continuamente la actividad hacia los protocolos óptimos basándose en una sofisticada optimización multivariable.

Gestión de riesgos: Los traders humanos luchan con la disciplina, la emoción y los límites de atención. Los agentes de IA imponen parámetros de riesgo predefinidos, ejecutan stop-losses sin dudarlo y monitorean posiciones las 24 horas del día, los 7 días de la semana, en múltiples cadenas simultáneamente.

La relación se vuelve simbiótica: la blockchain proporciona la infraestructura de confianza que permite la coordinación de la IA, mientras que la IA proporciona la inteligencia que hace que la infraestructura blockchain sea utilizable para una actividad económica compleja.

La economía emergente de los agentes

El stack de infraestructura permite nuevos modelos económicos:

Agente como servicio (Agent-as-a-Service): Los agentes autónomos alquilan sus capacidades bajo demanda, fijando precios dinámicamente según la oferta y la demanda. Sin plataformas, sin intermediarios: mercados directos de servicios de agente a agente.

Inteligencia colaborativa: Los agentes agrupan su experiencia para tareas complejas, coordinándose a través de contratos inteligentes que distribuyen automáticamente los ingresos según la contribución. Sistemas multi-agente que resuelven problemas más allá de la capacidad de cualquier agente individual.

Aumento de la predicción: Los agentes monitorean continuamente los flujos de información, actualizan las estimaciones de probabilidad y operan basándose en conocimientos antes de que las noticias sean legibles para los humanos. Las finanzas de la información (InfoFi) se vuelven algorítmicas, con agentes dominando el descubrimiento de precios.

Organizaciones autónomas: DAOs gobernadas enteramente por agentes de IA que ejecutan en nombre de los poseedores de tokens, tomando decisiones a través de inferencia verificable en lugar de votaciones humanas. Organizaciones que operan a velocidad de máquina con responsabilidad criptográfica.

Economía del contenido: Contenido generado por IA con procedencia on-chain que permite licencias automatizadas, distribución de regalías y derechos de creación de derivados. Agentes negociando términos de uso y haciendo cumplir la atribución a través de contratos inteligentes.

Estos no son hipotéticos: las primeras versiones ya están operando. La pregunta es: ¿qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos?

Desafíos técnicos pendientes

A pesar del rápido progreso, persisten obstáculos significativos:

Escalabilidad: Las blockchains actuales luchan con el rendimiento (throughput). Millones de agentes ejecutando microtransacciones continuas requieren soluciones de Capa 2, optimistic rollups o cadenas dedicadas específicas para agentes.

Privacidad: Muchas operaciones de agentes requieren lógica o datos confidenciales. Los TEE proporcionan soluciones parciales, pero el cifrado totalmente homomórfico (FHE) y la criptografía avanzada siguen siendo demasiado costosos para la escala de producción.

Regulación: Los actores económicos autónomos desafían los marcos legales existentes. ¿Quién es responsable cuando los agentes causan daños? ¿Cómo se aplican los requisitos KYC / AML? La claridad regulatoria va por detrás de la capacidad técnica.

Costes de los modelos: La inferencia de modelos de lenguaje extenso (LLM) sigue siendo costosa. Las redes descentralizadas deben igualar los precios de las API centralizadas mientras añaden la sobrecarga de verificación. La viabilidad económica requiere mejoras continuas en la eficiencia de los modelos.

Problemas de los oráculos: Los agentes necesitan datos confiables del mundo real. Las soluciones de oráculos existentes introducen supuestos de confianza y latencia. Mejores puentes entre la lógica on-chain y la información off-chain siguen siendo críticos.

Estos desafíos no son insuperables; son problemas de ingeniería con vías de solución claras. La trayectoria de la infraestructura apunta hacia una resolución dentro de 12 a 24 meses.

El punto de inflexión de 2026

Múltiples catalizadores convergen en 2026:

Maduración de los estándares: La adopción de ERC-8004 en las principales cadenas crea una infraestructura de identidad interoperable. Los agentes operan sin problemas en Ethereum, BNB Chain y ecosistemas emergentes.

Eficiencia de los modelos: Los modelos más pequeños y especializados reducen los costes de inferencia de 10 a 100 veces, manteniendo el rendimiento para tareas específicas. La viabilidad económica mejora drásticamente.

Claridad regulatoria: Las primeras jurisdicciones establecen marcos para agentes autónomos, proporcionando seguridad jurídica para la adopción institucional.

Avances en aplicaciones: Los mercados de predicción, la optimización de DeFi y la creación de contenido demuestran una clara superioridad de los agentes sobre los operadores humanos, impulsando la adopción más allá de los usuarios nativos de cripto.

Competencia en infraestructura: Múltiples equipos construyendo inferencia descentralizada, protocolos de coordinación de agentes y cadenas especializadas crean una presión competitiva que acelera el desarrollo.

La convergencia pasa de ser experimental a infraestructural. Los primeros adoptantes obtienen ventajas, las plataformas integran el soporte de agentes por defecto y la actividad económica fluye cada vez más a través de intermediarios autónomos.

Qué significa esto para el desarrollo de Web3

Los desarrolladores que construyen para la próxima fase de Web3 deben priorizar:

Diseño centrado en agentes: Tratar a los actores autónomos como usuarios principales, no como casos aislados. Diseñar APIs, estructuras de tarifas y mecanismos de gobernanza asumiendo que los agentes dominan la actividad.

Componibilidad: Construir protocolos que los agentes puedan integrar, coordinar y extender fácilmente. Las interfaces estandarizadas importan más que las implementaciones propietarias.

Verificación: Proporcionar pruebas criptográficas de ejecución, no solo los resultados de la ejecución. Los agentes necesitan computación verificable para construir cadenas de confianza.

Eficiencia económica: Optimizar para micro-transacciones, liquidación continua y mercados de tarifas dinámicos. El procesamiento por lotes tradicional y las intervenciones manuales no escalan para la actividad de los agentes.

Opciones de privacidad: Soportar operaciones de agentes tanto transparentes como confidenciales. Diferentes casos de uso requieren diferentes garantías de privacidad.

La infraestructura existe. Los estándares están emergiendo. Los incentivos económicos se alinean. La convergencia IA × Web3 no está por venir — ya está aquí. La pregunta es: ¿quién construye la infraestructura que se convertirá en la base para la próxima década de actividad económica autónoma?

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo un acceso RPC fiable y de alto rendimiento a través de los principales ecosistemas de blockchain. Explore nuestros servicios para la infraestructura de agentes de IA y el soporte de sistemas autónomos.


Fuentes:

Explosión de InfoFi: Cómo la información se convirtió en el activo más negociado de Wall Street

· 14 min de lectura
Dora Noda
Software Engineer

La industria financiera acaba de cruzar un umbral que la mayoría no vio venir. En febrero de 2026, los mercados de predicción procesaron $ 6.32 mil millones en volumen semanal — no por apuestas especulativas, sino por inversores institucionales valorando la información misma como una materia prima negociable.

Las Finanzas de Información, o "InfoFi", representan la culminación de una transformación de una década: de $ 4.63 mil millones en 2025 a una proyección de $ 176.32 mil millones para 2034 , la infraestructura Web3 ha hecho evolucionar los mercados de predicción de plataformas de apuestas a lo que Vitalik Buterin llama "Motores de Verdad" — mecanismos financieros que agregan inteligencia más rápido que los medios tradicionales o los sistemas de encuestas.

Esto no se trata solo de especulación cripto. ICE (Intercontinental Exchange, propietario de la Bolsa de Valores de Nueva York) inyectó $ 2 mil millones en Polymarket , valorando el mercado de predicción en $ 9 mil millones. Los fondos de cobertura y los bancos centrales ahora integran datos de mercados de predicción en las mismas terminales utilizadas para acciones y derivados. InfoFi se ha convertido en infraestructura financiera.

Qué significa realmente InfoFi

InfoFi trata la información como una clase de activo. En lugar de consumir noticias de forma pasiva, los participantes arriesgan capital sobre la exactitud de las afirmaciones — convirtiendo cada punto de dato en un mercado con un precio detectable.

La mecánica funciona así:

Flujo de información tradicional: El evento sucede → Los medios informan → Los analistas interpretan → Los mercados reaccionan (días a semanas)

Flujo de información de InfoFi: Los mercados predicen el evento → El capital fluye hacia pronósticos precisos → El precio señala la verdad instantáneamente (minutos a horas)

Los mercados de predicción alcanzaron los $ 5.9 mil millones en volumen semanal para enero de 2026 , con Kalshi capturando el 66.4 % de la cuota de mercado y Polymarket respaldado por la infraestructura institucional de ICE. Los agentes de IA ahora contribuyen con más del 30 % de la actividad comercial, valorando continuamente eventos geopolíticos, indicadores económicos y resultados corporativos.

El resultado: la información recibe un precio antes de convertirse en noticia. Los mercados de predicción identificaron la gravedad del COVID-19 semanas antes de las declaraciones de la OMS, valoraron el resultado de las elecciones de EE. UU. de 2024 con mayor precisión que las encuestas tradicionales y pronosticaron cambios en la política de los bancos centrales antes de los anuncios oficiales.

La batalla entre Polymarket y Kalshi

Dos plataformas dominan el panorama de InfoFi, representando enfoques fundamentalmente diferentes para los mercados de información.

Kalshi: El contendiente regulado federalmente. Procesó $ 43.1 mil millones en volumen en 2025 , con la supervisión de la CFTC proporcionando legitimidad institucional. Opera en dólares, se integra con cuentas de corretaje tradicionales y se enfoca en mercados que cumplen con las normativas de EE. UU.

El marco regulatorio limita el alcance del mercado pero atrae capital institucional. Las finanzas tradicionales se sienten cómodas canalizando órdenes a través de Kalshi porque opera dentro de la infraestructura de cumplimiento existente. Para febrero de 2026, Kalshi tiene una probabilidad del 34 % de liderar el volumen de 2026 , con el 91.1 % del comercio concentrado en contratos deportivos.

Polymarket: El desafiante criptonativo. Construido sobre infraestructura blockchain, procesó $ 33 mil millones en volumen en 2025 con mercados significativamente más diversificados — solo el 39.9 % proveniente de deportes, y el resto abarcando geopolítica, economía, tecnología y eventos culturales.

La inversión de $ 2 mil millones de ICE lo cambió todo. Polymarket obtuvo acceso a la infraestructura de liquidación institucional, distribución de datos de mercado y vías regulatorias previamente reservadas para las bolsas tradicionales. Los operadores ven la asociación con ICE como una confirmación de que los datos de los mercados de predicción aparecerán pronto junto a las terminales de Bloomberg y las transmisiones de Reuters.

La competencia impulsa la innovación. La claridad regulatoria de Kalshi permite la adopción institucional. La infraestructura cripto de Polymarket permite la participación global y la composabilidad. Ambos enfoques impulsan a InfoFi hacia la aceptación generalizada — diferentes caminos convergiendo en el mismo destino.

Agentes de IA como Traders de Información

Los agentes de IA no solo consumen información — la intercambian.

Más del 30 % del volumen del mercado de predicción proviene ahora de agentes de IA, que analizan continuamente flujos de datos, ejecutan operaciones y actualizan pronósticos de probabilidad. Estos no son simples bots que siguen reglas predefinidas. Los agentes de IA modernos integran múltiples fuentes de datos, identifican anomalías estadísticas y ajustan posiciones basándose en paisajes de información en constante evolución.

El auge del trading de IA crea bucles de retroalimentación:

  1. Los agentes de IA procesan la información más rápido que los humanos
  2. La actividad de trading produce señales de precios
  3. Las señales de precios se convierten en entradas de información para otros agentes
  4. Entran más agentes, aumentando la liquidez y la precisión

Esta dinámica transformó los mercados de predicción de la especulación humana al descubrimiento de información algorítmico. Los mercados ahora se actualizan en tiempo real a medida que los agentes de IA recalculan continuamente las probabilidades basándose en flujos de noticias, sentimiento social, indicadores económicos y correlaciones entre mercados.

Las implicaciones se extienden más allá del trading. Los mercados de predicción se convierten en "oráculos de verdad" para los contratos inteligentes, proporcionando fuentes de datos verificables y respaldadas económicamente. Los protocolos DeFi pueden liquidarse basándose en los resultados de los mercados de predicción. Las DAOs pueden usar el consenso de InfoFi para decisiones de gobernanza. Todo el stack de Web3 gana acceso a una infraestructura de información de alta calidad y alineada con incentivos.

El Colapso de la Plataforma X: El Primer Fracaso de InfoFi

No todos los experimentos de InfoFi tienen éxito. En enero de 2026, los precios de los tokens InfoFi se desplomaron después de que X (anteriormente Twitter) prohibiera las aplicaciones de recompensa por interacción.

Proyectos como KAITO (cayó un 18 %) y COOKIE (cayó un 20 %) construyeron modelos de "información como activo" que recompensaban a los usuarios por su interacción, contribución de datos y calidad del contenido. La tesis: la atención tiene valor, los usuarios deberían capturar ese valor a través de la economía de tokens.

El colapso reveló una falla fundamental: construir economías descentralizadas en plataformas centralizadas. Cuando X cambió los términos de servicio, ecosistemas enteros de InfoFi se evaporaron de la noche a mañana. Los usuarios perdieron el valor de sus tokens. Los proyectos perdieron su distribución. La economía de información "descentralizada" demostró ser frágil ante el riesgo de las plataformas centralizadas.

Los sobrevivientes aprendieron la lección. La verdadera infraestructura InfoFi requiere una distribución nativa de blockchain, no dependencias de plataformas Web2. Los proyectos pivotaron hacia protocolos sociales descentralizados (Farcaster, Lens) y mercados de datos on-chain. El colapso aceleró la migración de modelos híbridos Web2-Web3 a una infraestructura de información totalmente descentralizada.

InfoFi más allá de los Mercados de Predicción

La información como activo se extiende más allá de las predicciones binarias.

DAOs de Datos: Organizaciones que poseen, curan y monetizan conjuntos de datos de forma colectiva. Los miembros contribuyen con datos, validan la calidad y comparten los ingresos del uso comercial. La tokenización de Activos del Mundo Real (RWA) alcanzó los $23 mil millones a mediados de 2025, demostrando el apetito institucional por la representación de valor on-chain.

Redes de Infraestructura Física Descentralizada (DePIN): Valoradas en aproximadamente $30 mil millones a principios de 2025 con más de 1,500 proyectos activos. Los individuos comparten hardware excedente (potencia de GPU, ancho de banda, almacenamiento) y ganan tokens. La información se convierte en recursos de cómputo comercializables.

Mercados de Modelos de IA: La tecnología blockchain permite la propiedad verificable de modelos y el seguimiento de su uso. Los creadores monetizan los modelos de IA a través de licencias on-chain, con contratos inteligentes que automatizan la distribución de ingresos. La información (pesos de los modelos, datos de entrenamiento) se convierte en infraestructura componible y comercializable.

Mercados de Credenciales: Las pruebas de conocimiento cero permiten la verificación de credenciales preservando la privacidad. Los usuarios demuestran sus cualificaciones sin revelar datos personales. Las credenciales verificables se convierten en activos comerciales en contextos de contratación, préstamos y gobernanza.

El hilo conductor: la información pasa de ser una externalidad gratuita a un activo con precio. Los mercados descubren el valor de datos que antes no eran monetizables: consultas de búsqueda, métricas de atención, verificación de experiencia, recursos computacionales.

Integración de Infraestructura Institucional

La adopción de InfoFi por parte de Wall Street no es teórica — es operativa.

La inversión de $2 mil millones de ICE en Polymarket proporciona la maquinaria institucional: marcos de cumplimiento, infraestructura de liquidación, distribución de datos de mercado y rutas regulatorias. Los datos del mercado de predicción ahora se integran en las terminales utilizadas por gestores de fondos de cobertura y bancos centrales.

Esta integración transforma los mercados de predicción de fuentes de datos alternativas en infraestructura de inteligencia primaria. Los gestores de carteras consultan las probabilidades de InfoFi junto con los indicadores técnicos. Los sistemas de gestión de riesgos incorporan señales de los mercados de predicción. Los algoritmos de trading consumen actualizaciones de probabilidad en tiempo real.

La transición refleja cómo las terminales Bloomberg absorbieron fuentes de datos durante décadas: comenzando con los precios de los bonos, expandiéndose a flujos de noticias e integrando el sentimiento social. InfoFi representa la siguiente capa: estimaciones de probabilidad respaldadas económicamente para eventos que los datos tradicionales no pueden valorar.

Las finanzas tradicionales reconocen la propuesta de valor. Los costos de información disminuyen cuando los mercados valoran continuamente la precisión. Los fondos de cobertura pagan millones por investigación propietaria que los mercados de predicción producen orgánicamente a través de la alineación de incentivos. Los bancos centrales monitorean el sentimiento público a través de encuestas que InfoFi captura en distribuciones de probabilidad en tiempo real.

A medida que la industria proyecta un crecimiento de $40 mil millones en 2025 a más de $100 mil millones para 2027, el capital institucional continuará fluyendo hacia la infraestructura de InfoFi — no como apuestas cripto especulativas, sino como componentes centrales del mercado financiero.

El desafío regulatorio

El crecimiento explosivo de InfoFi atrae el escrutinio regulatorio.

Kalshi opera bajo la supervisión de la CFTC, tratando los mercados de predicción como derivados. Este marco proporciona claridad pero limita el alcance del mercado — nada de elecciones políticas, nada de resultados "socialmente perjudiciales", ni eventos fuera de la jurisdicción regulatoria.

El enfoque nativo de las criptomonedas de Polymarket permite mercados globales pero complica el cumplimiento. Los reguladores debaten si los mercados de predicción constituyen juegos de azar, ofertas de valores o servicios de información. La clasificación determina qué agencias regulan, qué actividades están permitidas y quién puede participar.

El debate se centra en preguntas fundamentales:

  • ¿Son los mercados de predicción juegos de azar o descubrimiento de información?
  • ¿Los tokens que representan posiciones de mercado constituyen valores (securities)?
  • ¿Deberían las plataformas restringir a los participantes por geografía o acreditación?
  • ¿Cómo se aplican las regulaciones financieras existentes a los mercados de información descentralizados?

Los resultados regulatorios darán forma a la trayectoria de InfoFi. Los marcos restrictivos podrían empujar la innovación hacia el extranjero (offshore) mientras limitan la participación institucional. Una regulación equilibrada podría acelerar la adopción masiva mientras protege la integridad del mercado.

Las señales tempranas sugieren enfoques pragmáticos. Los reguladores reconocen el valor de los mercados de predicción para el descubrimiento de precios y la gestión de riesgos. El desafío: diseñar marcos que permitan la innovación mientras previenen la manipulación, protegen a los consumidores y mantienen la estabilidad financiera.

Lo que viene a continuación

InfoFi representa más que mercados de predicción — es infraestructura para la economía de la información.

A medida que los agentes de IA median cada vez más en la interacción humano-computadora, necesitan fuentes de información confiables. Blockchain proporciona canales de datos verificables y alineados con incentivos. Los mercados de predicción ofrecen distribuciones de probabilidad en tiempo real. La combinación crea una "infraestructura de la verdad" para los sistemas autónomos.

Los protocolos DeFi ya integran oráculos de InfoFi para la liquidación. Las DAOs utilizan mercados de predicción para la gobernanza. Los protocolos de seguros valoran el riesgo utilizando estimaciones de probabilidad on-chain. La siguiente fase: adopción empresarial para la previsión de la cadena de suministro, investigación de mercado y planificación estratégica.

La proyección de mercado de 176 mil millones de dólares para 2034 asume un crecimiento incremental. La disrupción podría acelerarse más rápido. Si las principales instituciones financieras integran plenamente la infraestructura de InfoFi, las industrias tradicionales de encuestas, investigación y previsión se enfrentarán a una presión existencial. ¿Por qué pagar a analistas para que adivinen cuando los mercados valoran continuamente las probabilidades?

La transición no será sencilla. Las batallas regulatorias se intensificarán. La competencia entre plataformas forzará la consolidación. Los intentos de manipulación del mercado pondrán a prueba la alineación de incentivos. Pero la tesis fundamental permanece: la información tiene valor, los mercados descubren los precios, blockchain habilita la infraestructura.

InfoFi no está reemplazando a las finanzas tradicionales — se está convirtiendo en las finanzas tradicionales. La cuestión no es si los mercados de información alcanzarán la adopción masiva, sino qué tan rápido el capital institucional reconocerá lo inevitable.

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo acceso RPC confiable y de alto rendimiento en los principales ecosistemas de blockchain. Explore nuestros servicios para una infraestructura escalable de InfoFi y mercados de predicción.


Fuentes:

Panorama del mercado InfoFi: Más allá de los mercados de predicción hacia los datos como infraestructura

· 13 min de lectura
Dora Noda
Software Engineer

Los mercados de predicción superaron los $ 6.32 mil millones en volumen semanal a principios de febrero de 2026, con Kalshi manteniendo el 51 % de la cuota de mercado y Polymarket el 47 %. Pero las Finanzas de Información (InfoFi) se extienden mucho más allá de las apuestas binarias. Los mercados de tokenización de datos, las DAOs de datos y la infraestructura de información como activo crean un ecosistema emergente donde la información se vuelve programable, comercializable y verificable.

La tesis de InfoFi: la información tiene valor, los mercados descubren los precios, la blockchain habilita la infraestructura. Este artículo mapea el panorama — desde el motor de predicción de Polymarket hasta la tokenización de datos de Ocean Protocol, desde las DAOs de datos hasta los mercados de verdad restringidos por IA.

Los cimientos del mercado de predicción

Los mercados de predicción anclan el ecosistema InfoFi, proporcionando señales de precios para eventos futuros inciertos.

El duopolio Kalshi-Polymarket

El mercado se dividió casi en un 51 / 49 entre Kalshi y Polymarket, pero su composición difiere fundamentalmente.

Kalshi: Compensó más de $ 43.1 mil millones en 2025, fuertemente ponderado hacia las apuestas deportivas. Con licencia de la CFTC, denominado en dólares e integrado con corredurías minoristas de EE. UU. El "Prediction Markets Hub" de Robinhood canaliza miles de millones en contratos a través de la infraestructura de Kalshi.

Polymarket: Procesó $ 33.4 mil millones en 2025, enfocado en eventos de "alta señal" — geopolítica, macroeconomía y avances científicos. Cripto-nativo, con participación global y componible con DeFi. Completó la adquisición de QCEX por $ 112 millones a finales de 2025 para reingresar al mercado de EE. UU. mediante la obtención de licencias de la CFTC.

La competencia impulsa la innovación: Kalshi captura el cumplimiento minorista e institucional, mientras que Polymarket lidera la componibilidad cripto-nativa y el acceso internacional.

Más allá de las apuestas: Oráculos de información

Los mercados de predicción evolucionaron de ser herramientas de especulación a convertirse en oráculos de información para sistemas de IA. Las probabilidades de mercado sirven como "anclas externas" que limitan las alucinaciones de la IA — muchos sistemas de IA ahora restan importancia a las afirmaciones sobre las que no se puede apostar en los mercados de predicción.

Esto crea bucles de retroalimentación: los agentes de IA operan en mercados de predicción, los precios de mercado informan los resultados de la IA y los pronósticos generados por IA influyen en el trading humano. El resultado: los mercados de información se convierten en infraestructura para el descubrimiento de la verdad algorítmico.

Tokenización de datos: el modelo de Ocean Protocol

Mientras que los mercados de predicción valoran eventos futuros, Ocean Protocol tokeniza conjuntos de datos existentes, creando mercados para datos de entrenamiento de IA, conjuntos de datos de investigación e información patentada.

La arquitectura de Datatoken

El modelo de Ocean: cada datatoken representa una sublicencia de los propietarios de la propiedad intelectual base, lo que permite a los usuarios acceder y consumir los conjuntos de datos asociados. Los datatokens son compatibles con ERC20, lo que los hace comercializables, componibles con DeFi y programables a través de contratos inteligentes.

El stack de tres capas:

Data NFTs: Representan la propiedad de los conjuntos de datos subyacentes. Los creadores acuñan NFTs estableciendo derechos de procedencia y control.

Datatokens: Tokens de control de acceso. Poseer datatokens otorga derechos de uso temporales sin transferir la propiedad. Esto separa el acceso a los datos de la propiedad de los mismos.

Ocean Marketplace: Exchange descentralizado para datatokens. Los proveedores de datos monetizan sus activos, los consumidores compran acceso y los especuladores intercambian tokens.

Esta arquitectura resuelve problemas críticos: los proveedores de datos monetizan sin perder el control, los consumidores acceden sin los costos totales de compra y los mercados descubren un precio justo para el valor de la información.

Casos de uso más allá del trading

Mercados de entrenamiento de IA: Los desarrolladores de modelos compran acceso a conjuntos de datos para el entrenamiento. La economía de los datatokens alinea los incentivos — los datos valiosos alcanzan precios más altos y los creadores obtienen ingresos continuos de la actividad de entrenamiento de modelos.

Intercambio de datos de investigación: Conjuntos de datos académicos y científicos tokenizados para una distribución controlada. Los investigadores verifican la procedencia, rastrean el uso y compensan a los generadores de datos mediante la distribución automatizada de regalías.

Colaboración de datos empresariales: Las empresas comparten conjuntos de datos patentados a través de acceso tokenizado en lugar de una transferencia total. Mantienen la confidencialidad al tiempo que permiten análisis colaborativos y el desarrollo de modelos.

Monetización de datos personales: Los individuos tokenizan registros de salud, datos de comportamiento o preferencias de consumo. Venden el acceso directamente en lugar de que las plataformas extraigan valor sin compensación.

Ocean permite la composibilidad de Ethereum para las DAO de datos como cooperativas de datos, creando una infraestructura donde los datos se convierten en activos financieros programables.

DAO de datos: Propiedad colectiva de la información

Las DAO de datos funcionan como organizaciones autónomas descentralizadas que gestionan activos de datos, permitiendo la propiedad colectiva, la gobernanza y la monetización.

El modelo de unión de datos

Los miembros aportan datos colectivamente, la DAO gobierna las políticas de acceso y los precios, los ingresos se distribuyen automáticamente a través de contratos inteligentes y los derechos de gobernanza escalan con la contribución de datos.

Ejemplos emergentes:

Uniones de datos de salud: Los pacientes agrupan sus registros médicos, manteniendo la privacidad individual mediante pruebas criptográficas. Los investigadores compran acceso agregado y los ingresos fluyen hacia los contribuyentes. Los datos permanecen controlados por los pacientes, no por los sistemas de salud centralizados.

DAO de investigación en neurociencia: Instituciones académicas e investigadores aportan conjuntos de datos de imágenes cerebrales, información genética y resultados clínicos. El conjunto de datos colectivos se vuelve más valioso que las contribuciones individuales, acelerando la investigación mientras se compensa a los proveedores de datos.

Proyectos ecológicos/GIS: Sensores ambientales, imágenes satelitales y datos geográficos agrupados por comunidades. Las DAO gestionan el acceso a los datos para el modelado climático, la planificación urbana y la conservación mientras garantizan que las comunidades locales se beneficien de los datos generados en sus regiones.

Las DAO de datos resuelven problemas de coordinación: los individuos carecen de poder de negociación, las plataformas extraen rentas de monopolio y los datos permanecen aislados. La propiedad colectiva permite una compensación justa y una gobernanza democrática.

La información como activos digitales

El concepto trata los activos de datos como activos digitales, utilizando la infraestructura de blockchain diseñada inicialmente para criptomonedas para gestionar la propiedad, transferencia y valoración de la información.

Esta elección arquitectónica crea una potente composibilidad: los activos de datos se integran con protocolos DeFi, participan en creadores de mercado automatizados (AMM), sirven como garantía para préstamos y permiten el reparto de ingresos programable.

La pila de infraestructura (Infrastructure Stack)

Capa de identidad: Prueba criptográfica de propiedad y contribución de datos. Previene el plagio, establece la procedencia y permite la atribución.

Control de acceso: Contratos inteligentes que gobiernan quién puede acceder a los datos bajo qué condiciones. Licenciamiento programable que reemplaza la negociación manual de contratos.

Mecanismos de fijación de precios: Creadores de mercado automatizados que descubren el valor justo para los conjuntos de datos. Dinámicas de oferta y demanda en lugar de precios institucionales arbitrarios.

Distribución de ingresos: Contratos inteligentes que dividen automáticamente las ganancias entre contribuyentes, curadores y operadores de la plataforma. Elimina intermediarios de pago y retrasos.

Composibilidad: Los activos de datos se integran con el ecosistema Web3 más amplio. Uso de conjuntos de datos como garantía, creación de derivados o agrupación en productos compuestos.

A mediados de 2025, los mercados de RWA on-chain (incluidos los datos) alcanzaron los 23.000 millones de dólares, demostrando el apetito institucional por los activos tokenizados más allá de las criptomonedas especulativas.

IA restringiendo el InfoFi: El bucle de verificación

Los sistemas de IA dependen cada vez más de la infraestructura de InfoFi para la verificación de la verdad.

Los mercados de predicción restringen las alucinaciones de la IA: los traders arriesgan dinero real, las probabilidades del mercado sirven como anclas externas y los sistemas de IA restan peso a las afirmaciones sobre las que no se puede apostar.

Esto crea filtros de calidad: las afirmaciones verificables se negocian en mercados de predicción, las afirmaciones no verificables reciben una menor confianza de la IA, los precios del mercado proporcionan actualizaciones de probabilidad continuas y los resultados de la IA se basan más en la realidad económica.

El bucle de retroalimentación funciona en ambas direcciones: los agentes de IA generan predicciones que mejoran la eficiencia del mercado, los precios del mercado informan sobre la calidad de los datos de entrenamiento de la IA, las predicciones de alto valor impulsan los esfuerzos de recolección de datos y los mercados de información se optimizan para obtener la señal sobre el ruido.

El Mapa del Ecosistema InfoFi 2026

El panorama incluye múltiples capas interconectadas:

Capa 1: Descubrimiento de la Verdad

  • Mercados de predicción (Kalshi, Polymarket)
  • Plataformas de pronóstico
  • Sistemas de reputación
  • Protocolos de verificación

Capa 2: Monetización de Datos

  • Datatokens de Ocean Protocol
  • Mercados de conjuntos de datos
  • Tokens de acceso a API
  • Plataformas de licenciamiento de información

Capa 3: Propiedad Colectiva

  • DAOs de datos
  • Colaboraciones de investigación
  • Uniones de datos
  • Fondos comunitarios de información

Capa 4: Integración de IA

  • Mercados de entrenamiento de modelos
  • Verificación de inferencia
  • Atestación de resultados
  • Restricciones de alucinación

Capa 5: Infraestructura Financiera

  • Derivados de información
  • Colateral de datos
  • Creadores de mercado automatizados
  • Protocolos de distribución de ingresos

Cada capa se apoya en las demás: los mercados de predicción establecen señales de precios, los mercados de datos monetizan la información, las DAOs permiten la acción colectiva, la IA genera demanda y la infraestructura financiera proporciona liquidez.

Lo que revela el 2026

InfoFi pasa de ser experimental a infraestructural.

Validación Institucional: Las principales plataformas integran mercados de predicción. Wall Street consume señales de InfoFi. Surgen marcos regulatorios para el tratamiento de la información como activo.

Maduración de la Infraestructura: Los estándares de tokenización de datos se consolidan. Los patrones de gobernanza de las DAOs se prueban a escala. La integración entre IA y blockchain se vuelve fluida.

Crecimiento del Mercado: $6.32 mil millones en volumen semanal de mercados de predicción, $23 mil millones en activos de datos on-chain, acelerando la adopción en todos los sectores.

Expansión de Casos de Uso: Más allá de la especulación, hacia la investigación, colaboración empresarial, desarrollo de IA y coordinación de bienes públicos.

La pregunta no es si la información se convertirá en una clase de activo, sino qué tan rápido escalará la infraestructura y qué modelos dominarán. Los mercados de predicción captaron primero la atención, pero las DAOs de datos y los protocolos de tokenización podrían, en última instancia, impulsar mayores flujos de valor.

El panorama de InfoFi en 2026: base establecida, casos de uso probados, inicio de la adopción institucional e infraestructura en maduración. La siguiente fase: integración en los sistemas de información convencionales, reemplazando los mercados de datos heredados y convirtiéndose en la infraestructura por defecto para el intercambio de información.

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo acceso RPC confiable y de alto rendimiento en los principales ecosistemas blockchain. Explore nuestros servicios para obtener soporte en infraestructura InfoFi y mercados de datos.


Fuentes:

Los mercados de predicción alcanzan los 5.900 millones de dólares: Cuando los agentes de IA se convirtieron en la herramienta de pronóstico de Wall Street

· 16 min de lectura
Dora Noda
Software Engineer

Cuando el volumen de operaciones diario de Kalshi alcanzó los 814millonesaprincipiosde2026,capturandoel66.4 814 millones a principios de 2026, capturando el 66.4% de la cuota de mercado de predicción, no fueron los especuladores minoristas quienes impulsaron el aumento. Fueron los agentes de IA. Los algoritmos de trading autónomos ahora contribuyen con más del 30% del volumen del mercado de predicción, transformando lo que comenzó como una curiosidad de Internet en la infraestructura de pronóstico institucional más reciente de Wall Street. El volumen semanal del sector ( 5.9 mil millones y en aumento) rivaliza con muchos mercados de derivados tradicionales, con una diferencia crítica: estos mercados intercambian información, no solo activos.

Esto es "Information Finance" — la monetización de la inteligencia colectiva a través de mercados de predicción basados en blockchain. Cuando los traders apuestan 42millonessobresiOpenAIlograraˊlaAGIantesde2030,o42 millones sobre si OpenAI logrará la AGI antes de 2030, o 18 millones sobre qué empresa saldrá a bolsa próximamente, no están apostando. Están creando pronósticos líquidos y negociables en los que los inversores institucionales, los responsables políticos y los estrategas corporativos confían cada vez más, más que en los analistas tradicionales. La cuestión no es si los mercados de predicción transformarán los pronósticos. Es qué tan rápido las instituciones adoptarán mercados que superan las predicciones de los expertos por márgenes medibles.

El hito de los $ 5.9 mil millones: de la periferia a la infraestructura financiera

Los mercados de predicción terminaron 2025 con volúmenes máximos históricos cercanos a los 5.3milmillones,unatrayectoriaqueseaceleroˊen2026.Losvoluˊmenessemanalesahorasuperanconsistentementelos5.3 mil millones, una trayectoria que se aceleró en 2026. Los volúmenes semanales ahora superan consistentemente los 5.9 mil millones, con picos diarios que alcanzan los $ 814 millones durante eventos importantes. Para ponerlo en contexto, esto supera el volumen de operaciones diario de muchas acciones de mediana capitalización y rivaliza con los mercados de derivados especializados.

El crecimiento no es lineal — es exponencial. Los volúmenes de los mercados de predicción en 2024 se medían en cientos de millones anuales. Para 2025, los volúmenes mensuales superaron los 1milmillones.En2026,losvoluˊmenessemanalesalcanzaronrutinariamentelos1 mil millones. En 2026, los volúmenes semanales alcanzaron rutinariamente los 5.9 mil millones, lo que representa un crecimiento anual de más de 10 veces. Esta aceleración refleja cambios fundamentales en la forma en que las instituciones ven los mercados de predicción: de una novedad a una necesidad.

Kalshi domina con una cuota de mercado del 66.4%, procesando la mayoría del volumen institucional. Polymarket, que opera en el espacio nativo de las criptomonedas, captura un flujo minorista e internacional significativo. Juntas, estas plataformas manejan miles de millones en volumen semanal en miles de mercados que cubren elecciones, economía, desarrollos tecnológicos, deportes y entretenimiento.

La legitimidad del sector recibió la validación de ICE (Intercontinental Exchange) cuando la empresa matriz del NYSE invirtió $ 2 mil millones en infraestructura de mercados de predicción. Cuando el operador de la bolsa de valores más grande del mundo despliega capital a esta escala, indica que los mercados de predicción ya no son experimentales — son infraestructura estratégica.

Agentes de IA: el factor que contribuye al 30%

El motor menos valorado del crecimiento del mercado de predicción es la participación de los agentes de IA. Los algoritmos de trading autónomos ahora contribuyen con más del 30% del volumen total, cambiando fundamentalmente la dinámica del mercado.

¿Por qué los agentes de IA operan en mercados de predicción? Por tres razones:

Arbitraje de información: los agentes de IA escanean miles de fuentes de datos — noticias, redes sociales, datos on-chain, mercados financieros tradicionales — para identificar predicciones con precios incorrectos. Cuando un mercado valora un evento con una probabilidad del 40% pero el análisis de la IA sugiere un 55%, los agentes operan el diferencial.

Provisión de liquidez: al igual que los creadores de mercado proporcionan liquidez en las bolsas de valores, los agentes de IA ofrecen mercados bidireccionales en las plataformas de predicción. Esto mejora el descubrimiento de precios y reduce los diferenciales, haciendo que los mercados sean más eficientes para todos los participantes.

Diversificación de cartera: los inversores institucionales despliegan agentes de IA para obtener exposición a señales de información no tradicionales. Un fondo de cobertura podría utilizar los mercados de predicción para cubrir el riesgo político, los cronogramas de desarrollo tecnológico o los resultados regulatorios — riesgos difíciles de expresar en los mercados tradicionales.

El surgimiento del trading de agentes de IA crea un bucle de retroalimentación positiva. Más participación de la IA significa mejor liquidez, lo que atrae más capital institucional, lo que justifica un mayor desarrollo de la IA. Los mercados de predicción se están convirtiendo en un campo de entrenamiento para agentes autónomos que aprenden a navegar desafíos de pronóstico complejos en el mundo real.

Los traders en Kalshi están valorando una probabilidad del 42% de que OpenAI logre la AGI antes de 2030 — frente al 32% de seis meses antes. Este mercado, con más de $ 42 millones en liquidez, refleja la "sabiduría de las masas" que incluye a ingenieros, capitalistas de riesgo, expertos en políticas y, cada vez más, agentes de IA que procesan señales que los humanos no pueden rastrear a escala.

El dominio institucional de Kalshi: la ventaja del exchange regulado

La cuota de mercado del 66.4% de Kalshi no es accidental — es estructural. Como el primer exchange de mercados de predicción regulado por la CFTC en los EE. UU., Kalshi ofrece a los inversores institucionales algo que sus competidores no pueden: certeza regulatoria.

El capital institucional exige cumplimiento. Los fondos de cobertura, los gestores de activos y las tesorerías corporativas no pueden desplegar miles de millones en plataformas no reguladas sin activar riesgos legales y de cumplimiento. El registro de Kalshi ante la CFTC elimina esta barrera, permitiendo a las instituciones operar predicciones junto con acciones, bonos y derivados en sus carteras.

El estatus regulado crea efectos de red. Más volumen institucional atrae mejores proveedores de liquidez, lo que reduce los diferenciales, lo que atrae a más traders. Los libros de órdenes de Kalshi son ahora lo suficientemente profundos como para que las operaciones de millones de dólares se ejecuten sin un deslizamiento significativo — un umbral que separa los mercados funcionales de los experimentales.

La amplitud de productos de Kalshi también es importante. Los mercados abarcan elecciones, indicadores económicos, hitos tecnológicos, tiempos de salida a bolsa (IPO), ganancias corporativas y eventos macroeconómicos. Esta diversidad permite a los inversores institucionales expresar puntos de vista matizados. Un fondo de cobertura pesimista sobre las valoraciones tecnológicas puede vender en corto mercados de predicción sobre las IPO de unicornios. Un analista de políticas que anticipe un cambio regulatorio puede operar en los mercados de resultados del Congreso.

La alta liquidez garantiza que los precios no se manipulen fácilmente. Con millones en juego y miles de participantes, los precios del mercado reflejan un consenso genuino en lugar de una manipulación individual. Esta "sabiduría de las masas" supera las predicciones de los expertos en pruebas ciegas — los mercados de predicción superan consistentemente a las encuestas, los pronósticos de analistas y las opiniones de expertos.

La alternativa nativa cripto de Polymarket: El desafiante descentralizado

Mientras que Kalshi domina los mercados regulados de EE. UU., Polymarket captura el flujo internacional y nativo de las criptomonedas. Operando sobre rieles de blockchain con liquidación en USDC, Polymarket ofrece acceso sin permisos: sin KYC, sin restricciones geográficas y sin intermediarios regulatorios.

La ventaja de Polymarket es su alcance global. Los traders de jurisdicciones donde Kalshi no es accesible pueden participar libremente. Durante las elecciones de EE. UU. de 2024, Polymarket procesó más de $ 3 mil millones en volumen, demostrando que la infraestructura nativa cripto puede manejar una escala institucional.

La integración cripto de la plataforma permite mecanismos novedosos. Los contratos inteligentes ejecutan la liquidación automáticamente basándose en datos de oráculos. Los pools de liquidez operan continuamente sin intermediarios. La liquidación ocurre en segundos en lugar de días. Estas ventajas atraen a los traders nativos cripto que se sienten cómodos con las primitivas de DeFi.

Sin embargo, la incertidumbre regulatoria sigue siendo el desafío de Polymarket. Operar sin una aprobación regulatoria explícita de EE. UU. limita la adopción institucional a nivel nacional. Mientras que los usuarios minoristas e internacionales adoptan el acceso sin permisos, las instituciones de EE. UU. evitan en gran medida las plataformas que carecen de claridad regulatoria.

La competencia entre Kalshi (regulado, institucional) y Polymarket (nativo cripto, sin permisos) refleja debates más amplios en las finanzas digitales. Ambos modelos funcionan. Ambos sirven a diferentes bases de usuarios. El crecimiento del sector sugiere espacio para múltiples ganadores, cada uno optimizando para diferentes compensaciones regulatorias y tecnológicas.

Finanzas de Información: Monetizando la inteligencia colectiva

El término "Finanzas de Información" describe la innovación central de los mercados de predicción: transformar los pronósticos en instrumentos negociables y líquidos. Los pronósticos tradicionales dependen de expertos que proporcionan estimaciones puntuales con una precisión incierta. Los mercados de predicción agregan el conocimiento distribuido en probabilidades continuas con precios de mercado.

Por qué los mercados superan a los expertos:

Intereses en juego (Skin in the game): Los participantes del mercado arriesgan capital en sus pronósticos. Las malas predicciones pierden dinero. Esta estructura de incentivos filtra el ruido de la señal mejor que las encuestas de opinión o los paneles de expertos donde los participantes no enfrentan ninguna penalización por equivocarse.

Actualización continua: Los precios de mercado se ajustan en tiempo real a medida que surge nueva información. Los pronósticos de los expertos son estáticos hasta el próximo informe. Los mercados son dinámicos e incorporan noticias de última hora, filtraciones y tendencias emergentes al instante.

Conocimiento agregado: Los mercados agrupan información de miles de participantes con diversos conocimientos. Ningún experto individual puede igualar el conocimiento colectivo de ingenieros, inversores, responsables políticos y operadores, cada uno de los cuales aporta una visión especializada.

Probabilidad transparente: Los mercados expresan los pronósticos como probabilidades con intervalos de confianza claros. Un mercado que fija el precio de un evento en un 65 % dice "aproximadamente dos tercios de probabilidad", lo cual es más útil que un experto diciendo "probable" sin cuantificación.

La investigación muestra consistentemente que los mercados de predicción superan a los paneles de expertos, las encuestas y los pronósticos de analistas en diversos dominios: elecciones, economía, desarrollo tecnológico y resultados corporativos. El historial no es perfecto, pero es mediblemente mejor que las alternativas.

Las instituciones financieras están prestando atención. En lugar de contratar consultores costosos para el análisis de escenarios, las empresas pueden consultar los mercados de predicción. ¿Quiere saber si el Congreso aprobará la regulación cripto este año? Hay un mercado para eso. ¿Se pregunta si un competidor saldrá a bolsa antes de fin de año? Opere con ese pronóstico. ¿Evaluación del riesgo geopolítico? Apueste por ello.

El caso de uso institucional: Pronóstico como servicio

Los mercados de predicción están pasando de ser un entretenimiento especulativo a una infraestructura institucional. Varios casos de uso impulsan la adopción:

Gestión de riesgos: Las corporaciones utilizan los mercados de predicción para cubrir riesgos difíciles de expresar en los derivados tradicionales. Un gerente de cadena de suministro preocupado por las huelgas portuarias puede operar en mercados de predicción sobre negociaciones laborales. Un CFO preocupado por las tasas de interés puede cruzar los mercados de predicción de la Fed con los futuros de bonos.

Planificación estratégica: Las empresas toman decisiones de miles de millones de dólares basadas en pronósticos. ¿Se aprobará la regulación de la IA? ¿Se enfrentará una plataforma tecnológica a una acción antimonopolio? ¿Lanzará un competidor un producto? Los mercados de predicción proporcionan respuestas probabilísticas con capital real en riesgo.

Investigación de inversiones: Los fondos de cobertura y los gestores de activos utilizan los mercados de predicción como fuentes de datos alternativas. Los precios de mercado sobre hitos tecnológicos, resultados regulatorios o eventos macro informan el posicionamiento de la cartera. Algunos fondos operan directamente en los mercados de predicción como fuentes de alfa (alpha).

Análisis de políticas: Los gobiernos y los think tanks consultan los mercados de predicción para conocer la opinión pública más allá de las encuestas. Los mercados filtran las creencias genuinas de la señalización de virtud: los participantes que apuestan su dinero revelan expectativas reales, no respuestas socialmente deseables.

La inversión de $ 2 mil millones del ICE señala que las bolsas tradicionales ven los mercados de predicción como una nueva clase de activos. Al igual que los mercados de derivados surgieron en la década de 1970 para monetizar la gestión de riesgos, los mercados de predicción están surgiendo en la década de 2020 para monetizar el pronóstico.

El bucle de retroalimentación entre Agentes de IA y Mercados

Los agentes de IA que participan en los mercados de predicción crean un bucle de retroalimentación que acelera ambas tecnologías:

Mejor IA a partir de datos de mercado: Los modelos de IA se entrenan con los resultados de los mercados de predicción para mejorar el pronóstico. Un modelo que predice el cronograma de las IPO tecnológicas mejora mediante el backtesting contra los datos históricos de Kalshi. Esto crea incentivos para que los laboratorios de IA construyan modelos enfocados en la predicción.

Mejores mercados a partir de la participación de la IA: Los agentes de IA proporcionan liquidez, arbitran los errores de fijación de precios y mejoran el descubrimiento de precios. Los traders humanos se benefician de spreads más ajustados y una mejor agregación de información. Los mercados se vuelven más eficientes a medida que aumenta la participación de la IA.

Adopción institucional de la IA: Las instituciones que despliegan agentes de IA en los mercados de predicción adquieren experiencia con sistemas de trading autónomos en entornos de menor riesgo. Las lecciones aprendidas se transfieren al trading de acciones, forex y derivados.

La contribución de más del 30 % de la IA al volumen no es un techo; es un suelo. A medida que las capacidades de la IA mejoran y aumenta la adopción institucional, la participación de agentes podría alcanzar el 50 - 70 % en pocos años. Esto no reemplaza el juicio humano; lo aumenta. Los humanos establecen estrategias, los agentes de IA ejecutan a una escala y velocidad imposibles de lograr manualmente.

Los stacks tecnológicos están convergiendo. Los laboratorios de IA se asocian con plataformas de mercados de predicción. Los exchanges construyen APIs para el trading algorítmico. Las instituciones desarrollan IA propia para estrategias en mercados de predicción. Esta convergencia posiciona a los mercados de predicción como un campo de pruebas para la próxima generación de agentes financieros autónomos.

Desafíos y escepticismo

A pesar del crecimiento, los mercados de predicción enfrentan desafíos legítimos:

Riesgo de manipulación: Si bien la alta liquidez reduce la manipulación, los mercados de bajo volumen siguen siendo vulnerables. Un actor motivado con capital puede sesgar temporalmente los precios en mercados de nicho. Las plataformas combaten esto con requisitos de liquidez y detección de manipulación, pero el riesgo persiste.

Dependencia de oráculos: Los mercados de predicción requieren oráculos — entidades de confianza que determinan los resultados. Los errores o la corrupción de los oráculos pueden causar liquidaciones incorrectas. Los mercados basados en blockchain minimizan esto con redes de oráculos descentralizados, pero los mercados tradicionales dependen de una resolución centralizada.

Incertidumbre regulatoria: Aunque Kalshi está regulado por la CFTC, los marcos regulatorios más amplios siguen sin estar claros. ¿Obtendrán aprobación más mercados de predicción? ¿Enfrentarán restricciones los mercados internacionales? La evolución regulatoria podría limitar o acelerar el crecimiento de manera impredecible.

Concentración de liquidez: La mayor parte del volumen se concentra en mercados de alto perfil (elecciones, grandes eventos tecnológicos). Los mercados de nicho carecen de liquidez, lo que limita su utilidad para pronósticos especializados. Resolver esto requiere incentivos para la creación de mercado (market - making) o la provisión de liquidez por parte de agentes de IA.

Preocupaciones éticas: ¿Deberían existir mercados sobre temas sensibles — violencia política, muertes, desastres? Los críticos argumentan que monetizar eventos trágicos no es ético. Los defensores replican que la información de dichos mercados ayuda a prevenir daños. Este debate dará forma a qué mercados permitirán las plataformas.

La trayectoria 2026 - 2030

Si los volúmenes semanales alcanzan los $ 5,9 mil millones a principios de 2026, ¿hacia dónde se dirige el sector?

Asumiendo un crecimiento moderado (50 % anual — conservador dada la aceleración reciente), los volúmenes de los mercados de predicción podrían superar los $ 50 mil millones anuales para 2028 y los $ 150 mil millones para 2030. Esto posicionaría al sector a un nivel comparable con los mercados de derivados de tamaño medio.

Escenarios más agresivos — como el lanzamiento de mercados de predicción por parte de ICE en la NYSE, bancos importantes ofreciendo instrumentos de predicción, aprobación regulatoria para más tipos de mercado — podrían impulsar los volúmenes hacia los $ 500 mil millones + para 2030. A esa escala, los mercados de predicción se convierten en una clase de activo distinta en las carteras institucionales.

Los facilitadores tecnológicos ya están en su lugar: liquidación en blockchain, agentes de IA, marcos regulatorios, interés institucional y trayectorias probadas que superan los pronósticos tradicionales. Lo que queda es la dinámica de la curva de adopción: con qué rapidez las instituciones integran los mercados de predicción en sus procesos de toma de decisiones.

El cambio de "especulación marginal" a "herramienta de pronóstico institucional" está bien encaminado. Cuando ICE invierte $ 2 mil millones, cuando los agentes de IA contribuyen con el 30 % del volumen, cuando los volúmenes diarios de Kalshi alcanzan los $ 814 millones, la narrativa ha cambiado permanentemente. Los mercados de predicción no son una curiosidad. Son el futuro de cómo las instituciones cuantifican la incertidumbre y cubren el riesgo de información.

Fuentes

Redes de GPU descentralizadas 2026: Cómo DePIN está desafiando a AWS por el mercado de computación de IA de $100 mil millones

· 13 min de lectura
Dora Noda
Software Engineer

La revolución de la IA ha creado un hambre de poder computacional sin precedentes. Mientras que hiperescaladores como AWS, Azure y Google Cloud han dominado este espacio, está surgiendo una nueva clase de redes de GPUs descentralizadas para desafiar su supremacía. Con el sector DePIN (Redes de Infraestructura Física Descentralizada) explotando de $5.2 mil millones a más de $19 mil millones en capitalización de mercado en un año, y con proyecciones que alcanzan los $3.5 billones para 2028, la cuestión ya no es si el cómputo descentralizado competirá con los proveedores de la nube tradicionales, sino qué tan rápido capturará cuota de mercado.

La crisis de escasez de GPUs: Una tormenta perfecta para la descentralización

La industria de los semiconductores se enfrenta a un cuello de botella en el suministro que valida la tesis del cómputo descentralizado.

SK Hynix y Micron, dos de los mayores productores de Memoria de Alto Ancho de Banda (HBM) del mundo, han anunciado que toda su producción de 2026 ya está agotada. Samsung ha advertido sobre aumentos de precios de dos dígitos a medida que la demanda supera drásticamente la oferta.

Esta escasez está creando un mercado de dos niveles: aquellos con acceso directo a la infraestructura de hiperescala y todos los demás.

Para los desarrolladores de IA, las startups y los investigadores sin presupuestos de miles de millones de dólares, el modelo tradicional de la nube presenta tres barreras críticas:

  • Costos prohibitivos que pueden consumir entre el 50 % y el 70 % de los presupuestos.
  • Contratos de permanencia a largo plazo con una flexibilidad mínima.
  • Disponibilidad limitada de GPUs de gama alta como las NVIDIA H100 o H200.

Las redes de GPUs descentralizadas están posicionadas para resolver los tres problemas.

Los líderes del mercado: Cuatro arquitecturas, una visión

Render Network: De artistas 3D a infraestructura de IA

Construida originalmente para agregar GPUs inactivas para tareas de renderizado distribuido, Render Network ha pivotado con éxito hacia las cargas de trabajo de cómputo de IA. La red procesa ahora aproximadamente 1.5 millones de fotogramas mensualmente, y su lanzamiento de Dispersed.com en diciembre de 2025 marcó una expansión estratégica más allá de las industrias creativas.

Los hitos clave de 2026 incluyen:

  • Escalamiento de subredes de cómputo de IA: Recursos de GPUs descentralizados ampliados específicamente para cargas de trabajo de aprendizaje automático.
  • Más de 600 modelos de IA incorporados: Modelos de pesos abiertos para inferencia y simulaciones robóticas.
  • Optimización de carga del 70 %: Las cargas diferenciales (Differential Uploads) para Blender reducen drásticamente los tiempos de transferencia de archivos.

La migración de la red de Ethereum a Solana (renombrando RNDR a RENDER) la posicionó para las demandas de alto rendimiento del cómputo de IA.

En el CES 2026, Render mostró asociaciones destinadas a satisfacer el crecimiento explosivo en la demanda de GPUs para cargas de trabajo de ML en el borde (edge). El giro del renderizado creativo al cómputo de IA de propósito general representa una de las expansiones de mercado más exitosas en el sector DePIN.

Akash Network: El competidor compatible con Kubernetes

Akash adopta un enfoque fundamentalmente diferente con su modelo de subasta inversa. En lugar de precios fijos, los proveedores de GPUs compiten por las cargas de trabajo, reduciendo los costos mientras mantienen la calidad a través de un mercado descentralizado.

Los resultados hablan por sí solos: un crecimiento del 428 % interanual en el uso, con una utilización superior al 80 % al entrar en 2026.

La iniciativa Starcluster de la red representa su apuesta más ambiciosa hasta la fecha: combinar centros de datos gestionados de forma centralizada con el mercado descentralizado de Akash para crear lo que llaman una "malla planetaria" optimizada tanto para entrenamiento como para inferencia. La adquisición prevista de aproximadamente 7,200 GPUs NVIDIA GB200 a través de Starbonds posicionaría a Akash para soportar la demanda de IA a hiperescala.

Las métricas del tercer trimestre de 2025 revelan un impulso acelerado:

  • Los ingresos por comisiones aumentaron un 11 % trimestral hasta los 715,000 AKT.
  • Los nuevos arrendamientos crecieron un 42 % intertrimestral hasta los 27,000.
  • La Mejora del Mecanismo de Quema (BME) del primer trimestre de 2026 vincula las quemas de tokens AKT con el gasto en cómputo; cada $1 gastado quema $0.85 de AKT.

Con un volumen de cómputo mensual de $3.36 millones, esto sugiere que aproximadamente 2.1 millones de AKT (unos $985,000) podrían quemarse mensualmente, creando una presión deflacionaria en el suministro de tokens.

Este vínculo directo entre el uso y la tokenómica diferencia a Akash de proyectos donde la utilidad del token parece forzada o desconectada de la adopción real del producto.

Hyperbolic: El disruptor de costos

La propuesta de valor de Hyperbolic es brutalmente simple: ofrecer las mismas capacidades de inferencia de IA que AWS, Azure y Google Cloud a costos un 75 % más bajos. Impulsando a más de 100,000 desarrolladores, la plataforma utiliza Hyper-dOS, un sistema operativo descentralizado que coordina recursos de GPUs distribuidos globalmente a través de una capa de orquestación avanzada.

La arquitectura consta de cuatro componentes principales:

  1. Hyper-dOS: Coordina recursos de GPUs distribuidos globalmente.
  2. GPU Marketplace: Conecta a los proveedores con la demanda de cómputo.
  3. Servicio de Inferencia: Acceso a modelos de código abierto de vanguardia.
  4. Marco de Agentes (Agent Framework): Herramientas que permiten la inteligencia autónoma.

Lo que diferencia a Hyperbolic es su próximo protocolo de Prueba de Muestreo (PoSP) —desarrollado con investigadores de UC Berkeley y la Universidad de Columbia— que proporcionará verificación criptográfica de las salidas de IA.

Esto aborda uno de los mayores desafíos del cómputo descentralizado: la verificación sin necesidad de confianza (trustless) sin depender de autoridades centralizadas. Una vez que PoSP esté activo, las empresas podrán verificar que los resultados de la inferencia se computaron correctamente sin necesidad de confiar en el proveedor de la GPU.

Inferix: El constructor de puentes

Inferix se posiciona como la capa de conexión entre los desarrolladores que necesitan potencia de cómputo GPU y los proveedores con capacidad excedente. Su modelo de pago por uso elimina los compromisos a largo plazo que suelen encadenar a los usuarios con los proveedores de nube tradicionales.

Aunque es más reciente en el mercado, Inferix representa la creciente clase de redes GPU especializadas que se dirigen a segmentos específicos; en este caso, desarrolladores que necesitan un acceso flexible y de corta duración sin los requisitos de escala empresarial.

La revolución DePIN: En cifras

El sector DePIN, en su sentido más amplio, proporciona un contexto crucial para entender dónde encaja el cómputo GPU descentralizado en el panorama de la infraestructura.

A partir de septiembre de 2025, CoinGecko rastrea casi 250 proyectos DePIN con una capitalización de mercado combinada superior a los 19.000 millones de dólares, frente a los 5.200 millones de hace solo 12 meses. Esta tasa de crecimiento del 265 % supera drásticamente al mercado cripto en general.

Dentro de este ecosistema, las DePIN relacionadas con la IA dominan por capitalización de mercado, representando el 48 % de la temática. Las redes descentralizadas de cómputo y almacenamiento suman juntas aproximadamente 19.300 millones de dólares, lo que supone más de la mitad de la capitalización total del mercado DePIN.

Los casos más destacados demuestran la maduración del sector:

  • Aethir: entregó más de 1.400 millones de horas de cómputo y reportó casi 40 millones de dólares en ingresos trimestrales en 2025.
  • io.net y Nosana: cada uno alcanzó capitalizaciones de mercado superiores a los 400 millones de dólares durante sus ciclos de crecimiento.
  • Render Network: superó los 2.000 millones de dólares en capitalización de mercado al expandirse del renderizado a las cargas de trabajo de IA.

El contraargumento de los hiperscaladores: Donde la centralización aún gana

A pesar de la economía convincente y las métricas de crecimiento impresionantes, las redes GPU descentralizadas se enfrentan a desafíos técnicos legítimos que los hiperscaladores están diseñados para manejar.

Cargas de trabajo de larga duración: el entrenamiento de grandes modelos de lenguaje puede llevar semanas o meses de cómputo continuo. Las redes descentralizadas tienen dificultades para garantizar que GPUs específicas permanezcan disponibles durante periodos prolongados, mientras que AWS puede reservar capacidad por el tiempo que sea necesario.

Sincronización estrecha: el entrenamiento distribuido en múltiples GPUs requiere una coordinación a nivel de microsegundos. Cuando esas GPUs están dispersas por varios continentes con latencias de red variables, mantener la sincronización necesaria para un entrenamiento eficiente se vuelve exponencialmente más difícil.

Previsibilidad: para las empresas que ejecutan cargas de trabajo críticas, saber exactamente qué rendimiento esperar es innegociable. Los hiperscaladores pueden proporcionar SLAs detallados; las redes descentralizadas aún están construyendo la infraestructura de verificación para ofrecer garantías similares.

El consenso entre los expertos en infraestructura es que las redes GPU descentralizadas sobresalen en cargas de trabajo por lotes, tareas de inferencia y ejecuciones de entrenamiento de corta duración.

Para estos casos de uso, el ahorro de costes del 50-75 % en comparación con los hiperscaladores supone un cambio radical. Pero para las cargas de trabajo más exigentes, de larga duración y de misión crítica, la infraestructura centralizada sigue teniendo la ventaja, al menos por ahora.

Catalizador de 2026: La explosión de la inferencia de IA

A partir de 2026, se proyecta que la demanda de cómputo para entrenamiento e inferencia de IA se acelere drásticamente, impulsada por tres tendencias convergentes:

  1. Proliferación de la IA agéntica: los agentes autónomos requieren cómputo persistente para la toma de decisiones.
  2. Adopción de modelos de código abierto: a medida que las empresas se alejan de las APIs propietarias, necesitan infraestructura para alojar sus propios modelos.
  3. Despliegue de IA empresarial: las empresas están pasando de la experimentación a la producción.

Este aumento de la demanda favorece directamente las fortalezas de las redes descentralizadas.

Las cargas de trabajo de inferencia suelen ser de corta duración y masivamente paralelizables; exactamente el perfil donde las redes GPU descentralizadas superan a los hiperscaladores en coste, ofreciendo un rendimiento comparable. Una startup que ejecute inferencia para un chatbot o un servicio de generación de imágenes puede reducir sus costes de infraestructura en un 75 % sin sacrificar la experiencia del usuario.

Economía de tokens: La capa de incentivos

El componente de criptomoneda de estas redes no es mera especulación; es el mecanismo que hace que la agregación global de GPUs sea económicamente viable.

Render (RENDER): emitida originalmente como RNDR en Ethereum, la red migró a Solana entre 2023 y 2024, con los titulares intercambiando tokens en una proporción de 1:1. Los tokens de compartición de GPU, incluido RENDER, subieron más del 20 % a principios de 2026, reflejando una creciente convicción en el sector.

Akash (AKT): el mecanismo de quema BME crea un vínculo directo entre el uso de la red y el valor del token. A diferencia de muchos proyectos cripto donde la tokenomics parece desconectada del uso del producto, el modelo de Akash asegura que cada dólar de cómputo impacte directamente en el suministro de tokens.

La capa de tokens resuelve el problema del arranque en frío que afectó a los intentos anteriores de cómputo descentralizado.

Al incentivar a los proveedores de GPU con recompensas en tokens durante los inicios de la red, estos proyectos pueden impulsar la oferta antes de que la demanda alcance una masa crítica. A medida que la red madura, los ingresos reales por cómputo reemplazan gradualmente la inflación de los tokens.

Esta transición de los incentivos en tokens a los ingresos genuinos es la prueba de fuego que separa los proyectos de infraestructura sostenibles de los modelos económicos insostenibles.

La pregunta de los 100 mil millones de dólares: ¿Puede competir lo descentralizado?

El mercado de la computación descentralizada se proyecta que crezca de 9 mil millones de dólares en 2024 a 100 mil millones para 2032. Que las redes de GPU descentralizadas capturen una cuota significativa depende de resolver tres desafíos:

Verificación a escala: El protocolo PoSP de Hyperbolic representa un progreso, pero la industria necesita métodos estandarizados para verificar criptográficamente que el trabajo de computación se realizó correctamente. Sin esto, las empresas seguirán dudando.

Fiabilidad de grado empresarial: Lograr un 99.99 % de tiempo de actividad al coordinar GPUs distribuidas globalmente y operadas de forma independiente requiere una orquestación sofisticada; el modelo Starcluster de Akash muestra un camino a seguir.

Experiencia del desarrollador: Las redes descentralizadas deben igualar la facilidad de uso de AWS, Azure o GCP. La compatibilidad con Kubernetes (como la que ofrece Akash) es un comienzo, pero la integración perfecta con los flujos de trabajo de ML existentes es esencial.

Qué significa esto para los desarrolladores

Para los desarrolladores de IA y constructores de Web3, las redes de GPU descentralizadas representan una oportunidad estratégica:

Optimización de costes: Las facturas de entrenamiento e inferencia pueden consumir fácilmente entre el 50 % y el 70 % del presupuesto de una startup de IA. Reducir esos costes a la mitad o más cambia fundamentalmente la economía unitaria.

Evitar la dependencia del proveedor (vendor lock-in): Los hiperescaladores facilitan la entrada y encarecen la salida. Las redes descentralizadas que utilizan estándares abiertos preservan la opcionalidad.

Resistencia a la censura: Para aplicaciones que podrían enfrentar presión de proveedores centralizados, la infraestructura descentralizada proporciona una capa crítica de resiliencia.

La advertencia es ajustar la carga de trabajo a la infraestructura. Para el prototipado rápido, el procesamiento por lotes, el servicio de inferencia y las ejecuciones de entrenamiento en paralelo, las redes de GPU descentralizadas están listas hoy. Para el entrenamiento de modelos de varias semanas que requiere una fiabilidad absoluta, los hiperescaladores siguen siendo la opción más segura, por ahora.

El camino por delante

La convergencia de la escasez de GPUs, el crecimiento de la demanda de computación de IA y la maduración de la infraestructura DePIN crea una oportunidad de mercado poco común. Los proveedores de la nube tradicionales dominaron la primera generación de infraestructura de IA ofreciendo fiabilidad y conveniencia. Las redes de GPU descentralizadas están compitiendo en coste, flexibilidad y resistencia al control centralizado.

Los próximos 12 meses serán definitorios. A medida que Render escala su subred de computación de IA, Akash pone en línea las GPUs de Starcluster e Hyperbolic lanza la verificación criptográfica, veremos si la infraestructura descentralizada puede cumplir su promesa a hiperescala.

Para los desarrolladores, investigadores y empresas que actualmente pagan precios premium por recursos de GPU escasos, la aparición de alternativas creíbles no puede llegar lo suficientemente pronto. La pregunta no es si las redes de GPU descentralizadas capturarán parte del mercado de computación de 100 mil millones de dólares, sino cuánto.

BlockEden.xyz proporciona infraestructura de blockchain de grado empresarial para desarrolladores que construyen sobre cimientos diseñados para durar. Explore nuestro marketplace de APIs para acceder a servicios de nodos fiables en las principales redes de blockchain.