Saltar al contenido principal

20 publicaciones etiquetados con "IA"

Ver Todas las Etiquetas

Camp Network: La blockchain que aborda el problema de propiedad intelectual de miles de millones de dólares de la IA 🏕️

· 6 min de lectura
Dora Noda
Software Engineer

El auge de la IA generativa ha sido nada menos que explosivo. Desde impresionantes obras de arte digital hasta textos con apariencia humana, la IA está creando contenido a una escala sin precedentes. Pero este boom tiene un lado oscuro: ¿de dónde obtiene la IA sus datos de entrenamiento? A menudo, provienen de la vasta extensión de internet: arte, música y escritos creados por humanos que no reciben crédito ni compensación.

Entra Camp Network, un nuevo proyecto de blockchain que busca resolver este problema fundamental. No es solo otra plataforma cripto; es una “Capa de Propiedad Intelectual Autónoma” diseñada para dar a los creadores la propiedad y el control sobre su trabajo en la era de la IA. Veamos qué hace de Camp Network un proyecto a seguir.


¿Cuál es la gran idea?

En esencia, Camp Network es una blockchain que actúa como un registro global y verificable de propiedad intelectual (IP). La misión es permitir que cualquiera —desde un artista independiente hasta un usuario de redes sociales— registre su contenido en cadena. Esto crea un registro permanente e inalterable de propiedad y procedencia.

¿Por qué importa? Cuando un modelo de IA utiliza contenido registrado en Camp, los contratos inteligentes de la red pueden hacer cumplir automáticamente los términos de licencia. Esto significa que el creador original puede obtener atribución e incluso recibir pagos de regalías al instante. La visión de Camp es construir una nueva economía de creadores donde la compensación no sea una reflexión posterior; esté integrada directamente en el protocolo.


Bajo el capó: la pila tecnológica

Camp no es solo un concepto; está respaldado por tecnología seria diseñada para alto rendimiento y facilidad de desarrollo.

  • Arquitectura modular: Camp está construido como un rollup soberano usando Celestia para la disponibilidad de datos. Este diseño le permite ser increíblemente rápido (objetivo de 50 000 transacciones por segundo) y económico, mientras sigue siendo totalmente compatible con las herramientas de Ethereum (EVM).
  • Prueba de Procedencia (PoP): Este es el mecanismo de consenso único de Camp. En lugar de depender de la minería intensiva en energía, la seguridad de la red está vinculada a la verificación del origen del contenido. Cada transacción refuerza la procedencia de la IP en la red, haciendo que la propiedad sea “ejecutable por diseño”.
  • Estrategia de doble VM: Para maximizar el rendimiento, Camp está integrando la Solana Virtual Machine (SVM) junto con su compatibilidad EVM. Esto permite a los desarrolladores elegir el entorno más adecuado para su aplicación, especialmente en casos de uso de alto rendimiento como interacciones de IA en tiempo real.
  • Kits para creadores y IA: Camp ofrece dos marcos clave:
    • Origin Framework: Un sistema fácil de usar para que los creadores registren su IP, la tokenicen (como NFT) e incorporen reglas de licencia.
    • mAItrix Framework: Un kit de herramientas para que los desarrolladores construyan y desplieguen agentes de IA que puedan interactuar con la IP on‑chain de forma segura y con permisos.

Personas, alianzas y avances

Una idea solo es tan buena como su ejecución, y Camp parece estar ejecutando bien.

El equipo y la financiación

El proyecto está liderado por un equipo con una combinación potente de experiencia en The Raine Group (medios y acuerdos de IP), Goldman Sachs, Figma y CoinList. Esta mezcla de finanzas, productos tecnológicos y experiencia en ingeniería cripto les ha permitido asegurar 30 millones de dólares en financiación de VCs de primer nivel como 1kx, Blockchain Capital y Maven 11.

Un ecosistema en crecimiento

Camp ha sido agresivo en construir alianzas. La más significativa es una participación estratégica en KOR Protocol, una plataforma para tokenizar IP musical que trabaja con artistas de renombre como Deadmau5 y franquicias como Black Mirror. Esta única alianza brinda a Camp una biblioteca masiva de contenido de alto perfil con derechos claros. Otros colaboradores clave incluyen:

  • RewardedTV: Plataforma descentralizada de streaming de video que usa Camp para derechos de contenido on‑chain.
  • Rarible: Mercado de NFT integrado para el comercio de activos de IP.
  • LayerZero: Protocolo cross‑chain que garantiza interoperabilidad con otras blockchains.

Hoja de ruta y comunidad

Tras campañas exitosas de testnet incentivado que atrajeron a decenas de miles de usuarios (recompensándolos con puntos que se convertirán en tokens), Camp apunta a un lanzamiento de mainnet en el Q3 2025. Esto irá acompañado de un Evento de Generación de Tokens para su token nativo, $CAMP, que se usará para tarifas de gas, staking y gobernanza. El proyecto ya ha cultivado una comunidad apasionada dispuesta a construir y usar la plataforma desde el primer día.


¿Cómo se compara?

Camp Network no está solo en este espacio. Enfrenta una competencia fuerte de proyectos como Story Protocol, respaldado por a16z, y Soneium, vinculado a Sony. Sin embargo, Camp se diferencia en varios aspectos clave:

  1. Enfoque de abajo hacia arriba: Mientras los competidores parecen dirigirse a grandes titulares de IP corporativa, Camp se centra en empoderar a creadores independientes y comunidades cripto mediante incentivos tokenizados.
  2. Solución integral: Ofrece un conjunto completo de herramientas, desde un registro de IP hasta un marco de agentes de IA, posicionándose como una solución “todo en uno”.
  3. Rendimiento y escalabilidad: Su arquitectura modular y soporte de doble VM están diseñados para las altas demandas de rendimiento de IA y medios.

Conclusión

Camp Network está presentando un caso convincente para convertirse en la capa fundamental de la propiedad intelectual en la era Web3. Al combinar tecnología innovadora, un equipo sólido, alianzas estratégicas y una ética centrada en la comunidad, está construyendo una solución práctica a uno de los problemas más urgentes creados por la IA generativa.

La verdadera prueba llegará con el lanzamiento de la mainnet y la adopción en el mundo real. Pero con una visión clara y una ejecución fuerte hasta ahora, Camp Network es, sin duda, un proyecto clave a observar mientras intenta construir un futuro más equitativo para los creadores digitales.```

Conoce BeFreed.ai – Combustible de Aprendizaje para Constructores de BlockEden.xyz

· 4 min de lectura
Dora Noda
Software Engineer

Por Qué BlockEden.xyz Se Preocupa

En el mundo acelerado de Web3, la velocidad lo es todo. Entregar infraestructura de RPC y staking de calidad de producción requiere que nuestro equipo y nuestra comunidad estén constantemente a la vanguardia de la innovación. Eso implica mantenerse al día con protocolos densos, artículos revolucionarios de criptografía y debates de gobernanza que evolucionan rápidamente. Cuanto más rápido nuestra comunidad pueda absorber y comprender nuevas ideas, más rápido podrá construir la próxima generación de aplicaciones descentralizadas. Aquí es donde entra BeFreed.ai.

Qué Es BeFreed.ai

BeFreed.ai es una startup con sede en San Francisco que tiene una misión simple pero poderosa: hacer que el aprendizaje sea alegre y personal en la era de la IA. Han creado un compañero de micro‑aprendizaje inteligente diseñado para adaptarse al estilo de vida exigente de constructores y creadores.

Ingredientes Principales:

  • Múltiples formatos → un clic: BeFreed.ai puede tomar una amplia gama de contenidos — desde libros extensos y videos detallados hasta documentos técnicos complejos — y transformarlos al instante en resúmenes rápidos, tarjetas de estudio, notas en profundidad e incluso audio al estilo podcast.
  • Motor adaptativo: La plataforma está diseñada para aprender contigo. Presta atención a tu ritmo e intereses de aprendizaje, mostrando la información más relevante a continuación, en lugar de obligarte a seguir un currículo rígido y único para todos.
  • Chat integrado y explicaciones “¿Por qué esto?”: ¿Tienes una pregunta? Simplemente pregúntala. BeFreed.ai permite consultas al instante para aclarar temas complejos. También brinda explicaciones que conectan los nuevos conocimientos con tus objetivos generales, haciendo el proceso de aprendizaje más significativo.
  • Una comunidad de aprendizaje de 43 k miembros: El aprendizaje suele ser una actividad colectiva. BeFreed.ai fomenta una comunidad vibrante de más de 43 000 aprendices que comparten su progreso, reaccionan a contenidos perspicaces y resaltan los puntos clave, manteniendo alta la motivación y el impulso.

Por Qué Es Relevante para los Constructores de BlockEden.xyz

Para los constructores dedicados al ecosistema BlockEden.xyz, BeFreed.ai es más que una herramienta de aprendizaje; es una ventaja estratégica. Así puede afinar tu competitividad:

  • Aprovechamiento del tiempo: Convierte un whitepaper de 300 páginas en un breve audio de 10 minutos para escuchar antes de una votación de gobernanza crucial.
  • Retención de contexto: Usa tarjetas de estudio y mapas mentales para consolidar tu comprensión de los detalles del protocolo que necesitarás al escribir índices de smart contracts.
  • Crecimiento multidisciplinario: Amplía tu conjunto de habilidades sin salir de tu entorno de desarrollo. Aprende los fundamentos del design thinking, comprende los bucles de crecimiento o recibe consejos sobre concurrencia en Go durante tus momentos libres.
  • Vocabulario compartido: Crea listas de reproducción a nivel de equipo para asegurar que cada colaborador aprenda a partir de la misma fuente de información destilada y consistente, fomentando una mejor colaboración y alineación.

Usando BeFreed con los Flujos de Trabajo de BlockEden.xyz

Integrar BeFreed.ai en tu proceso de desarrollo existente es fluido y aporta beneficios inmediatos:

  1. Suelta una especificación: Pega la URL del último PDF de tokenomics o de una llamada de desarrolladores en YouTube en BeFreed para obtener un resumen instantáneo y digerible.
  2. Exporta tarjetas de estudio: Revisa conceptos clave durante las ejecuciones de CI. Esta forma de repetición es mucho más eficaz que la fatiga mental que genera el constante cambio de contexto.
  3. Enlaza en la documentación: Inserta una URL de resumen de BeFreed junto a cada referencia de API en tu documentación para ayudar a los nuevos miembros del equipo a ponerse al día más rápido.
  4. Mantente actualizado: Configura digestiones semanales en BeFreed sobre L2 emergentes y pon ese conocimiento en práctica de inmediato prototipando con los servicios RPC multichain de BlockEden.xyz.

Comienza

BeFreed.ai está disponible ahora en iOS, Android y la web. Te invitamos a probarla durante tu próximo sprint de proyecto en BlockEden.xyz y experimentar cómo puede mejorar tu velocidad de aprendizaje y construcción. Nuestro equipo ya está explorando integraciones más estrechas — imagina un futuro donde un webhook convierta automáticamente cada descripción de PR fusionada en un conjunto de estudio integral.

Conectando la IA y la Web3 a través de MCP: Un Análisis Panorámico

· 20 min de lectura
Dora Noda
Software Engineer

Introducción

La IA y la Web3 están convergiendo de maneras poderosas, con las interfaces generales de IA ahora concebidas como un tejido conectivo para la web descentralizada. Un concepto clave que emerge de esta convergencia es MCP, que se refiere a “Model Context Protocol” (Protocolo de Contexto de Modelo, introducido por Anthropic) o se describe vagamente como un Protocolo de Conexión del Metaverso en discusiones más amplias. En esencia, MCP es un marco estandarizado que permite a los sistemas de IA interactuar con herramientas y redes externas de una manera natural y segura, potencialmente “conectando” agentes de IA a cada rincón del ecosistema Web3. Este informe proporciona un análisis exhaustivo de cómo las interfaces generales de IA (como los agentes de modelos de lenguaje grandes y los sistemas neuro-simbólicos) podrían conectar todo en el mundo Web3 a través de MCP, cubriendo los antecedentes históricos, la arquitectura técnica, el panorama de la industria, los riesgos y el potencial futuro.

1. Antecedentes del Desarrollo

1.1 La Evolución de la Web3 y sus Promesas Incumplidas

El término “Web3” fue acuñado alrededor de 2014 para describir una web descentralizada impulsada por blockchain. La visión era ambiciosa: una internet sin permisos centrada en la propiedad del usuario. Los entusiastas imaginaron reemplazar la infraestructura centralizada de la Web2 con alternativas basadas en blockchain, como Ethereum Name Service (para DNS), Filecoin o IPFS (para almacenamiento) y DeFi para los rieles financieros. En teoría, esto arrebataría el control a las grandes plataformas tecnológicas y otorgaría a los individuos autosoberanía sobre sus datos, identidad y activos.

La realidad se quedó corta. A pesar de años de desarrollo y expectación, el impacto general de la Web3 siguió siendo marginal. Los usuarios promedio de internet no acudieron en masa a las redes sociales descentralizadas ni comenzaron a gestionar claves privadas. Las razones clave incluyeron una mala experiencia de usuario, transacciones lentas y costosas, estafas de alto perfil e incertidumbre regulatoria. La “web de propiedad” descentralizada en gran medida “no logró materializarse” más allá de una comunidad de nicho. A mediados de la década de 2020, incluso los defensores de las criptomonedas admitieron que la Web3 no había supuesto un cambio de paradigma para el usuario promedio.

Mientras tanto, la IA estaba experimentando una revolución. A medida que el capital y el talento de los desarrolladores se desplazaban de las criptomonedas a la IA, los avances transformadores en el aprendizaje profundo y los modelos fundacionales (GPT-3, GPT-4, etc.) capturaron la imaginación del público. La IA generativa demostró una utilidad clara —produciendo contenido, código y decisiones— de una manera que las aplicaciones cripto habían tenido dificultades para lograr. De hecho, el impacto de los modelos de lenguaje grandes en solo un par de años superó con creces una década de adopción de usuarios de blockchain. Este contraste llevó a algunos a bromear diciendo que “la Web3 se desperdició en las criptomonedas” y que la verdadera Web 3.0 está emergiendo de la ola de la IA.

1.2 El Auge de las Interfaces Generales de IA

A lo largo de décadas, las interfaces de usuario evolucionaron desde páginas web estáticas (Web1.0) hasta aplicaciones interactivas (Web2.0), pero siempre dentro de los confines de hacer clic en botones y rellenar formularios. Con la IA moderna, especialmente los modelos de lenguaje grandes (LLM), ha llegado un nuevo paradigma de interfaz: el lenguaje natural. Los usuarios pueden simplemente expresar su intención en lenguaje sencillo y hacer que los sistemas de IA ejecuten acciones complejas en muchos dominios. Este cambio es tan profundo que algunos sugieren redefinir “Web 3.0” como la era de los agentes impulsados por IA (“la Web Agéntica”) en lugar de la definición anterior centrada en blockchain.

Sin embargo, los primeros experimentos con agentes de IA autónomos expusieron un cuello de botella crítico. Estos agentes —por ejemplo, prototipos como AutoGPT— podían generar texto o código, pero carecían de una forma robusta de comunicarse con sistemas externos y entre sí. No había “un lenguaje común nativo de IA” para la interoperabilidad. Cada integración con una herramienta o fuente de datos era un apaño a medida, y la interacción de IA a IA no tenía un protocolo estándar. En términos prácticos, un agente de IA podría tener una gran capacidad de razonamiento pero fallar en la ejecución de tareas que requerían el uso de aplicaciones web o servicios on-chain, simplemente porque no sabía cómo hablar con esos sistemas. Este desajuste —cerebros potentes, E/S primitiva— era similar a tener un software súper inteligente atrapado detrás de una torpe GUI.

1.3 Convergencia y el Surgimiento de MCP

Para 2024, se hizo evidente que para que la IA alcanzara su máximo potencial (y para que la Web3 cumpliera su promesa), se necesitaba una convergencia: los agentes de IA requieren un acceso fluido a las capacidades de la Web3 (aplicaciones descentralizadas, contratos, datos), y la Web3 necesita más inteligencia y usabilidad, que la IA puede proporcionar. Este es el contexto en el que nació MCP (Model Context Protocol). Introducido por Anthropic a finales de 2024, MCP es un estándar abierto para la comunicación entre IA y herramientas que resulta natural para los LLM. Proporciona una forma estructurada y reconocible para que los “hosts” de IA (como ChatGPT, Claude, etc.) encuentren y utilicen una variedad de herramientas y recursos externos a través de servidores MCP. En otras palabras, MCP es una capa de interfaz común que permite a los agentes de IA conectarse a servicios web, APIs e incluso funciones de blockchain, sin codificar a medida cada integración.

Piense en MCP como “el USB-C de las interfaces de IA”. Así como el USB-C estandarizó cómo se conectan los dispositivos (para que no necesite cables diferentes para cada dispositivo), MCP estandariza cómo los agentes de IA se conectan a herramientas y datos. En lugar de codificar diferentes llamadas a API para cada servicio (Slack vs. Gmail vs. nodo de Ethereum), un desarrollador puede implementar la especificación MCP una vez, y cualquier IA compatible con MCP puede entender cómo usar ese servicio. Los principales actores de la IA vieron rápidamente la importancia: Anthropic hizo de código abierto a MCP, y empresas como OpenAI y Google están desarrollando soporte para él en sus modelos. Este impulso sugiere que MCP (o “Protocolos de Meta Conectividad” similares) podría convertirse en la columna vertebral que finalmente conecte la IA y la Web3 de una manera escalable.

Cabe destacar que algunos tecnólogos argumentan que esta conectividad centrada en la IA es la verdadera realización de la Web3.0. En palabras de Simba Khadder, “MCP tiene como objetivo estandarizar una API entre los LLM y las aplicaciones”, de manera similar a cómo las APIs REST permitieron la Web 2.0, lo que significa que la próxima era de la Web3 podría definirse por interfaces de agentes inteligentes en lugar de solo por blockchains. En lugar de la descentralización por sí misma, la convergencia con la IA podría hacer que la descentralización sea útil, al ocultar la complejidad detrás del lenguaje natural y los agentes autónomos. El resto de este informe profundiza en cómo, técnica y prácticamente, las interfaces generales de IA (a través de protocolos como MCP) pueden conectar todo en el mundo Web3.

2. Arquitectura Técnica: Interfaces de IA Uniendo Tecnologías Web3

Incrustar agentes de IA en la pila de Web3 requiere integración en múltiples niveles: redes de blockchain y contratos inteligentes, almacenamiento descentralizado, sistemas de identidad y economías basadas en tokens. Las interfaces generales de IA —desde grandes modelos fundacionales hasta sistemas híbridos neuro-simbólicos— pueden servir como un “adaptador universal” que conecta estos componentes. A continuación, analizamos la arquitectura de dicha integración:

Figura: Un diagrama conceptual de la arquitectura de MCP, que muestra cómo los hosts de IA (aplicaciones basadas en LLM como Claude o ChatGPT) utilizan un cliente MCP para conectarse a varios servidores MCP. Cada servidor proporciona un puente a alguna herramienta o servicio externo (por ejemplo, Slack, Gmail, calendarios o datos locales), análogo a los periféricos que se conectan a través de un concentrador universal. Esta interfaz MCP estandarizada permite a los agentes de IA acceder a servicios remotos y recursos on-chain a través de un protocolo común.

2.1 Agentes de IA como Clientes Web3 (Integración con Blockchains)

En el núcleo de la Web3 se encuentran las blockchains y los contratos inteligentes, máquinas de estado descentralizadas que pueden hacer cumplir la lógica sin necesidad de confianza. ¿Cómo puede una interfaz de IA interactuar con estos? Hay dos direcciones a considerar:

  • IA leyendo de la blockchain: Un agente de IA puede necesitar datos on-chain (por ejemplo, precios de tokens, saldo de activos de un usuario, propuestas de DAO) como contexto para sus decisiones. Tradicionalmente, recuperar datos de la blockchain requiere interactuar con APIs RPC de nodos o bases de datos de subgrafos. Con un marco como MCP, una IA puede consultar un servidor MCP estandarizado de “datos de blockchain” para obtener información on-chain en tiempo real. Por ejemplo, un agente habilitado para MCP podría solicitar el último volumen de transacciones de un determinado token, o el estado de un contrato inteligente, y el servidor MCP se encargaría de los detalles de bajo nivel para conectarse a la blockchain y devolver los datos en un formato que la IA pueda usar. Esto aumenta la interoperabilidad al desacoplar la IA del formato de API de cualquier blockchain específica.

  • IA escribiendo en la blockchain: De manera más potente, los agentes de IA pueden ejecutar llamadas a contratos inteligentes o transacciones a través de integraciones Web3. Una IA podría, por ejemplo, ejecutar autónomamente una operación en un exchange descentralizado o ajustar parámetros en un contrato inteligente si se cumplen ciertas condiciones. Esto se logra mediante la invocación por parte de la IA de un servidor MCP que encapsula la funcionalidad de transacción de la blockchain. Un ejemplo concreto es el servidor MCP de thirdweb para cadenas EVM, que permite a cualquier cliente de IA compatible con MCP interactuar con Ethereum, Polygon, BSC, etc., abstrayendo la mecánica específica de la cadena. Usando una herramienta así, un agente de IA podría desencadenar acciones on-chain “sin intervención humana”, permitiendo dApps autónomas; por ejemplo, una bóveda DeFi impulsada por IA que se reequilibra a sí misma firmando transacciones cuando cambian las condiciones del mercado.

Bajo el capó, estas interacciones todavía dependen de wallets, claves y tarifas de gas, pero a la interfaz de IA se le puede dar acceso controlado a un wallet (con sandboxes de seguridad adecuados) para realizar las transacciones. Los oráculos y los puentes entre cadenas también entran en juego: redes de oráculos como Chainlink sirven como un puente entre la IA y las blockchains, permitiendo que los resultados de la IA sean introducidos on-chain de manera confiable. El Protocolo de Interoperabilidad entre Cadenas (CCIP) de Chainlink, por ejemplo, podría permitir que un modelo de IA considerado confiable desencadene múltiples contratos en diferentes cadenas simultáneamente en nombre de un usuario. En resumen, las interfaces generales de IA pueden actuar como un nuevo tipo de cliente Web3, uno que puede tanto consumir datos de la blockchain como producir transacciones de la blockchain a través de protocolos estandarizados.

2.2 Sinergia Neuro-Simbólica: Combinando el Razonamiento de la IA con los Contratos Inteligentes

Un aspecto intrigante de la integración IA-Web3 es el potencial de las arquitecturas neuro-simbólicas que combinan la capacidad de aprendizaje de la IA (redes neuronales) con la lógica rigurosa de los contratos inteligentes (reglas simbólicas). En la práctica, esto podría significar que los agentes de IA manejen la toma de decisiones no estructurada y pasen ciertas tareas a los contratos inteligentes para una ejecución verificable. Por ejemplo, una IA podría analizar el sentimiento del mercado (una tarea difusa), pero luego ejecutar operaciones a través de un contrato inteligente determinista que sigue reglas de riesgo preestablecidas. El marco MCP y los estándares relacionados hacen factibles tales transferencias al darle a la IA una interfaz común para llamar a funciones de contrato o para consultar las reglas de una DAO antes de actuar.

Un ejemplo concreto es el AI-DSL (Lenguaje Específico de Dominio de IA) de SingularityNET, que tiene como objetivo estandarizar la comunicación entre agentes de IA en su red descentralizada. Esto puede verse como un paso hacia la integración neuro-simbólica: un lenguaje formal (simbólico) para que los agentes soliciten servicios de IA o datos entre sí. De manera similar, proyectos como AlphaCode de DeepMind u otros podrían eventualmente conectarse para que los contratos inteligentes llamen a modelos de IA para la resolución de problemas on-chain. Aunque ejecutar grandes modelos de IA directamente on-chain es impráctico hoy en día, están surgiendo enfoques híbridos: por ejemplo, ciertas blockchains permiten la verificación de cálculos de ML a través de pruebas de conocimiento cero o ejecución confiable, lo que permite la verificación on-chain de resultados de IA off-chain. En resumen, la arquitectura técnica concibe los sistemas de IA y los contratos inteligentes de blockchain como componentes complementarios, orquestados a través de protocolos comunes: la IA se encarga de la percepción y las tareas abiertas, mientras que las blockchains proporcionan integridad, memoria y el cumplimiento de las reglas acordadas.

2.3 Almacenamiento Descentralizado y Datos para la IA

La IA prospera con los datos, y la Web3 ofrece nuevos paradigmas para el almacenamiento y el intercambio de datos. Las redes de almacenamiento descentralizado (como IPFS/Filecoin, Arweave, Storj, etc.) pueden servir tanto como repositorios para artefactos de modelos de IA como fuentes de datos de entrenamiento, con control de acceso basado en blockchain. Una interfaz general de IA, a través de MCP o similar, podría obtener archivos o conocimiento del almacenamiento descentralizado con la misma facilidad que desde una API de Web2. Por ejemplo, un agente de IA podría extraer un conjunto de datos del mercado de Ocean Protocol o un archivo cifrado de un almacenamiento distribuido, si tiene las claves o los pagos adecuados.

Ocean Protocol en particular se ha posicionado como una plataforma de “economía de datos de IA”, utilizando blockchain para tokenizar datos e incluso servicios de IA. En Ocean, los conjuntos de datos están representados por datatokens que controlan el acceso; un agente de IA podría obtener un datatoken (quizás pagando con criptomonedas o a través de algún derecho de acceso) y luego usar un servidor MCP de Ocean para recuperar los datos reales para su análisis. El objetivo de Ocean es desbloquear “datos inactivos” para la IA, incentivando el intercambio mientras se preserva la privacidad. Por lo tanto, una IA conectada a la Web3 podría acceder a un vasto corpus descentralizado de información —desde bóvedas de datos personales hasta datos gubernamentales abiertos— que antes estaba aislado. La blockchain asegura que el uso de los datos sea transparente y pueda ser recompensado de manera justa, alimentando un ciclo virtuoso donde más datos están disponibles para la IA y más contribuciones de IA (como modelos entrenados) pueden ser monetizadas.

Los sistemas de identidad descentralizada también juegan un papel aquí (discutido más en la siguiente subsección): pueden ayudar a controlar quién o qué tiene permitido acceder a ciertos datos. Por ejemplo, a un agente de IA médico se le podría exigir que presente una credencial verificable (prueba on-chain de cumplimiento con HIPAA o similar) antes de que se le permita descifrar un conjunto de datos médicos del almacenamiento IPFS personal de un paciente. De esta manera, la arquitectura técnica asegura que los datos fluyan hacia la IA cuando sea apropiado, pero con gobernanza y registros de auditoría on-chain para hacer cumplir los permisos.

2.4 Identidad y Gestión de Agentes en un Entorno Descentralizado

Cuando los agentes de IA autónomos operan en un ecosistema abierto como la Web3, la identidad y la confianza se vuelven primordiales. Los marcos de identidad descentralizada (DID) proporcionan una forma de establecer identidades digitales para agentes de IA que pueden ser verificadas criptográficamente. Cada agente (o el humano/organización que lo despliega) puede tener un DID y credenciales verificables asociadas que especifican sus atributos y permisos. Por ejemplo, un bot de trading de IA podría llevar una credencial emitida por un sandbox regulatorio que certifique que puede operar dentro de ciertos límites de riesgo, o un moderador de contenido de IA podría demostrar que fue creado por una organización de confianza y ha sido sometido a pruebas de sesgo.

A través de registros de identidad y sistemas de reputación on-chain, el mundo Web3 puede hacer cumplir la responsabilidad por las acciones de la IA. Cada transacción que realiza un agente de IA puede ser rastreada hasta su ID, y si algo sale mal, las credenciales te dicen quién lo construyó o quién es responsable. Esto aborda un desafío crítico: sin identidad, un actor malicioso podría crear agentes de IA falsos para explotar sistemas o difundir desinformación, y nadie podría distinguir los bots de los servicios legítimos. La identidad descentralizada ayuda a mitigar eso al permitir una autenticación robusta y distinguir los agentes de IA auténticos de las falsificaciones.

En la práctica, una interfaz de IA integrada con la Web3 usaría protocolos de identidad para firmar sus acciones y solicitudes. Por ejemplo, cuando un agente de IA llama a un servidor MCP para usar una herramienta, podría incluir un token o firma vinculada a su identidad descentralizada, para que el servidor pueda verificar que la llamada proviene de un agente autorizado. Los sistemas de identidad basados en blockchain (como el ERC-725 de Ethereum o los DID de W3C anclados en un ledger) aseguran que esta verificación sea sin confianza y verificable globalmente. El concepto emergente de “wallets de IA” se relaciona con esto: esencialmente, dar a los agentes de IA wallets de criptomonedas que están vinculados con su identidad, para que puedan gestionar claves, pagar por servicios o hacer staking de tokens como una fianza (que podría ser recortada por mal comportamiento). ArcBlock, por ejemplo, ha discutido cómo “los agentes de IA necesitan un wallet” y un DID para operar de manera responsable en entornos descentralizados.

En resumen, la arquitectura técnica prevé a los agentes de IA como ciudadanos de primera clase en la Web3, cada uno con una identidad on-chain y posiblemente una participación en el sistema, utilizando protocolos como MCP para interactuar. Esto crea una red de confianza: los contratos inteligentes pueden requerir las credenciales de una IA antes de cooperar, y los usuarios pueden optar por delegar tareas solo a aquellas IA que cumplan con ciertas certificaciones on-chain. Es una mezcla de la capacidad de la IA con las garantías de confianza de la blockchain.

2.5 Economías de Tokens e Incentivos para la IA

La tokenización es un sello distintivo de la Web3, y se extiende también al dominio de la integración de la IA. Al introducir incentivos económicos a través de tokens, las redes pueden fomentar comportamientos deseados tanto de los desarrolladores de IA como de los propios agentes. Están surgiendo varios patrones:

  • Pago por Servicios: Los modelos y servicios de IA pueden ser monetizados on-chain. SingularityNET fue pionero en esto al permitir a los desarrolladores desplegar servicios de IA y cobrar a los usuarios en un token nativo (AGIX) por cada llamada. En un futuro habilitado para MCP, uno podría imaginar cualquier herramienta o modelo de IA como un servicio plug-and-play donde el uso se mide a través de tokens o micropagos. Por ejemplo, si un agente de IA utiliza una API de visión de terceros a través de MCP, podría manejar automáticamente el pago transfiriendo tokens al contrato inteligente del proveedor de servicios. Fetch.ai de manera similar visualiza mercados donde “agentes económicos autónomos” intercambian servicios y datos, con su nuevo LLM de Web3 (ASI-1) presumiblemente integrando transacciones cripto para el intercambio de valor.

  • Staking y Reputación: Para asegurar la calidad y la fiabilidad, algunos proyectos requieren que los desarrolladores o agentes hagan staking de tokens. Por ejemplo, el proyecto DeMCP (un mercado descentralizado de servidores MCP) planea usar incentivos de tokens para recompensar a los desarrolladores por crear servidores MCP útiles, y posiblemente hacer que hagan staking de tokens como señal de compromiso con la seguridad de su servidor. La reputación también podría estar vinculada a los tokens; por ejemplo, un agente que se desempeña consistentemente bien podría acumular tokens de reputación o reseñas positivas on-chain, mientras que uno que se comporta mal podría perder su stake o ganar marcas negativas. Esta reputación tokenizada puede luego retroalimentar el sistema de identidad mencionado anteriormente (los contratos inteligentes o los usuarios verifican la reputación on-chain del agente antes de confiar en él).

  • Tokens de Gobernanza: Cuando los servicios de IA se convierten en parte de plataformas descentralizadas, los tokens de gobernanza permiten a la comunidad dirigir su evolución. Proyectos como SingularityNET y Ocean tienen DAOs donde los poseedores de tokens votan sobre cambios en el protocolo o la financiación de iniciativas de IA. En la Alianza de Superinteligencia Artificial (ASI) combinada —una fusión recientemente anunciada de SingularityNET, Fetch.ai y Ocean Protocol— un token unificado (ASI) está destinado a gobernar la dirección de un ecosistema conjunto de IA+blockchain. Dichos tokens de gobernanza podrían decidir políticas como qué estándares adoptar (por ejemplo, soportar MCP o protocolos A2A), qué proyectos de IA incubar o cómo manejar las directrices éticas para los agentes de IA.

  • Acceso y Utilidad: Los tokens pueden controlar el acceso no solo a los datos (como con los datatokens de Ocean) sino también al uso de modelos de IA. Un escenario posible son los “NFTs de modelos” o similares, donde poseer un token te otorga derechos sobre los resultados de un modelo de IA o una participación en sus ganancias. Esto podría sustentar los mercados de IA descentralizados: imagina un NFT que representa la propiedad parcial de un modelo de alto rendimiento; los propietarios ganan colectivamente cada vez que el modelo se utiliza en tareas de inferencia, y pueden votar sobre su ajuste fino. Aunque experimental, esto se alinea con el ethos de la Web3 de propiedad compartida aplicada a los activos de IA.

En términos técnicos, integrar tokens significa que los agentes de IA necesitan funcionalidad de wallet (como se señaló, muchos tendrán sus propios wallets de criptomonedas). A través de MCP, una IA podría tener una “herramienta de wallet” que le permita verificar saldos, enviar tokens o llamar a protocolos DeFi (quizás para intercambiar un token por otro para pagar un servicio). Por ejemplo, si un agente de IA que se ejecuta en Ethereum necesita algunos tokens de Ocean para comprar un conjunto de datos, podría intercambiar automáticamente algunos ETH por $OCEAN a través de un DEX usando un plugin de MCP, y luego proceder con la compra, todo sin intervención humana, guiado por las políticas establecidas por su propietario.

En general, la economía de tokens proporciona la capa de incentivos en la arquitectura IA-Web3, asegurando que los contribuyentes (ya sea que proporcionen datos, código de modelo, poder de cómputo o auditorías de seguridad) sean recompensados, y que los agentes de IA tengan “algo en juego” que los alinee (hasta cierto punto) con las

IA Verificable On-Chain con zkML y Pruebas Criptográficas

· 43 min de lectura
Dora Noda
Software Engineer

Introducción: La Necesidad de una IA Verificable en la Blockchain

A medida que los sistemas de IA aumentan su influencia, asegurar que sus resultados sean confiables se vuelve crítico. Los métodos tradicionales se basan en garantías institucionales (esencialmente, “solo confía en nosotros”), que no ofrecen garantías criptográficas. Esto es especialmente problemático en contextos descentralizados como las blockchains, donde un contrato inteligente o un usuario debe confiar en un resultado derivado de la IA sin poder volver a ejecutar un modelo pesado on-chain. El Aprendizaje Automático de Conocimiento Cero (zkML) aborda esto al permitir la verificación criptográfica de los cálculos de ML. En esencia, zkML permite a un probador generar una prueba sucinta de que “el resultado YY provino de ejecutar el modelo MM en la entrada XXsin revelar XX ni los detalles internos de MM. Estas pruebas de conocimiento cero (ZKPs) pueden ser verificadas por cualquiera (o cualquier contrato) de manera eficiente, cambiando la confianza en la IA de la “política a la prueba”.

La verificabilidad on-chain de la IA significa que una blockchain puede incorporar cálculos avanzados (como inferencias de redes neuronales) verificando una prueba de ejecución correcta en lugar de realizar el cómputo en sí. Esto tiene amplias implicaciones: los contratos inteligentes pueden tomar decisiones basadas en predicciones de IA, los agentes autónomos descentralizados pueden demostrar que siguieron sus algoritmos, y los servicios de cómputo cross-chain u off-chain pueden proporcionar resultados verificables en lugar de oráculos no verificables. En última instancia, zkML ofrece un camino hacia una IA sin confianza y que preserva la privacidad – por ejemplo, demostrando que las decisiones de un modelo de IA son correctas y autorizadas sin exponer datos privados o los pesos del modelo propietario. Esto es clave para aplicaciones que van desde análisis de salud seguros hasta juegos en blockchain y oráculos de DeFi.

Cómo Funciona zkML: Comprimiendo la Inferencia de ML en Pruebas Sucintas

A un alto nivel, zkML combina sistemas de pruebas criptográficas con la inferencia de ML para que una evaluación de modelo compleja pueda ser “comprimida” en una pequeña prueba. Internamente, el modelo de ML (por ejemplo, una red neuronal) se representa como un circuito o programa que consta de muchas operaciones aritméticas (multiplicaciones de matrices, funciones de activación, etc.). En lugar de revelar todos los valores intermedios, un probador realiza el cálculo completo off-chain y luego utiliza un protocolo de prueba de conocimiento cero para certificar que cada paso se realizó correctamente. El verificador, con solo la prueba y algunos datos públicos (como el resultado final y un identificador para el modelo), puede estar criptográficamente convencido de la corrección sin volver a ejecutar el modelo.

Para lograr esto, los frameworks de zkML típicamente transforman el cálculo del modelo en un formato adecuado para las ZKPs:

  • Compilación de Circuitos: En los enfoques basados en SNARK, el grafo de computación del modelo se compila en un circuito aritmético o un conjunto de restricciones polinómicas. Cada capa de la red neuronal (convoluciones, multiplicaciones de matrices, activaciones no lineales) se convierte en un subcircuito con restricciones que aseguran que las salidas sean correctas dadas las entradas. Debido a que las redes neuronales involucran operaciones no lineales (ReLUs, Sigmoides, etc.) que no se adaptan naturalmente a los polinomios, se utilizan técnicas como las tablas de búsqueda para manejarlas eficientemente. Por ejemplo, una ReLU (salida = max(0, entrada)) puede ser forzada por una restricción personalizada o una búsqueda que verifica que la salida es igual a la entrada si la entrada ≥ 0, y cero en caso contrario. El resultado final es un conjunto de restricciones criptográficas que el probador debe satisfacer, lo que implícitamente demuestra que el modelo se ejecutó correctamente.
  • Traza de Ejecución y Máquinas Virtuales: Una alternativa es tratar la inferencia del modelo como una traza de programa, como se hace en los enfoques de zkVM. Por ejemplo, la zkVM JOLT se enfoca en el conjunto de instrucciones RISC-V; se puede compilar el modelo de ML (o el código que lo calcula) a RISC-V y luego probar que cada instrucción de la CPU se ejecutó correctamente. JOLT introduce una técnica de “singularidad de búsqueda”, reemplazando las costosas restricciones aritméticas con búsquedas rápidas en tablas para cada operación válida de la CPU. Cada operación (suma, multiplicación, operación a nivel de bits, etc.) se verifica mediante una búsqueda en una tabla gigante de resultados válidos precalculados, utilizando un argumento especializado (Lasso/SHOUT) para mantener la eficiencia. Esto reduce drásticamente la carga de trabajo del probador: incluso las operaciones complejas de 64 bits se convierten en una sola búsqueda en la tabla en la prueba en lugar de muchas restricciones aritméticas.
  • Protocolos Interactivos (GKR Sum-Check): Un tercer enfoque utiliza pruebas interactivas como GKR (Goldwasser–Kalai–Rotblum) para verificar un cálculo en capas. Aquí, el cálculo del modelo se ve como un circuito aritmético en capas (cada capa de la red neuronal es una capa del grafo del circuito). El probador ejecuta el modelo normalmente pero luego participa en un protocolo sum-check para demostrar que las salidas de cada capa son correctas dadas sus entradas. En el enfoque de Lagrange (DeepProve, detallado a continuación), el probador y el verificador realizan un protocolo polinómico interactivo (hecho no interactivo a través de Fiat-Shamir) que verifica la consistencia de los cálculos de cada capa sin rehacerlos. Este método de sum-check evita generar un circuito estático monolítico; en su lugar, verifica la consistencia de los cálculos paso a paso con operaciones criptográficas mínimas (principalmente hashing o evaluaciones de polinomios).

Independientemente del enfoque, el resultado es una prueba sucinta (típicamente de unos pocos kilobytes a unas pocas decenas de kilobytes) que certifica la corrección de toda la inferencia. La prueba es de conocimiento cero, lo que significa que cualquier entrada secreta (datos privados o parámetros del modelo) puede mantenerse oculta – influyen en la prueba pero no se revelan a los verificadores. Solo se revelan las salidas o afirmaciones públicas deseadas. Esto permite escenarios como “probar que el modelo MM aplicado a los datos del paciente XX produce el diagnóstico YY, sin revelar XX ni los pesos del modelo”.

Habilitando la verificación on-chain: Una vez que se genera una prueba, se puede publicar en una blockchain. Los contratos inteligentes pueden incluir lógica de verificación para comprobar la prueba, a menudo utilizando primitivas criptográficas precompiladas. Por ejemplo, Ethereum tiene precompilaciones para las operaciones de emparejamiento BLS12-381 utilizadas en muchos verificadores de zk-SNARK, lo que hace que la verificación on-chain de las pruebas SNARK sea eficiente. Las STARKs (pruebas basadas en hash) son más grandes, pero aún pueden verificarse on-chain con una optimización cuidadosa o posiblemente con algunas suposiciones de confianza (la L2 de StarkWare, por ejemplo, verifica las pruebas STARK en Ethereum mediante un contrato verificador on-chain, aunque con un costo de gas más alto que las SNARKs). La clave es que la cadena no necesita ejecutar el modelo de ML – solo ejecuta una verificación que es mucho más barata que el cómputo original. En resumen, zkML comprime la costosa inferencia de IA en una pequeña prueba que las blockchains (o cualquier verificador) pueden comprobar en milisegundos o segundos.

Lagrange DeepProve: Arquitectura y Rendimiento de un Avance en zkML

DeepProve de Lagrange Labs es un framework de inferencia zkML de última generación centrado en la velocidad y la escalabilidad. Lanzado en 2025, DeepProve introdujo un nuevo sistema de prueba que es dramáticamente más rápido que las soluciones anteriores como Ezkl. Su diseño se centra en el protocolo de prueba interactivo GKR con sum-check y optimizaciones especializadas para circuitos de redes neuronales. Así es como funciona DeepProve y logra su rendimiento:

  • Preprocesamiento Único: Los desarrolladores comienzan con una red neuronal entrenada (los tipos actualmente soportados incluyen perceptrones multicapa y arquitecturas CNN populares). El modelo se exporta al formato ONNX, una representación de grafo estándar. La herramienta de DeepProve luego analiza el modelo ONNX y lo cuantiza (convierte los pesos a formato de punto fijo/entero) para una aritmética de campo eficiente. En esta fase, también genera las claves de prueba y verificación para el protocolo criptográfico. Esta configuración se realiza una vez por modelo y no necesita repetirse por cada inferencia. DeepProve enfatiza la facilidad de integración: “Exporta tu modelo a ONNX → configuración única → genera pruebas → verifica en cualquier lugar”.

  • Prueba (Inferencia + Generación de Prueba): Después de la configuración, un probador (que podría ser ejecutado por un usuario, un servicio o la red de probadores descentralizada de Lagrange) toma una nueva entrada XX y ejecuta el modelo MM sobre ella, obteniendo la salida YY. Durante esta ejecución, DeepProve registra una traza de ejecución de los cálculos de cada capa. En lugar de traducir cada multiplicación en un circuito estático por adelantado (como hacen los enfoques SNARK), DeepProve utiliza el protocolo GKR de tiempo lineal para verificar cada capa sobre la marcha. Para cada capa de la red, el probador se compromete con las entradas y salidas de la capa (por ejemplo, a través de hashes criptográficos o compromisos polinómicos) y luego participa en un argumento de sum-check para demostrar que las salidas realmente resultan de las entradas según la función de la capa. El protocolo sum-check convence iterativamente al verificador de la corrección de una suma de evaluaciones de un polinomio que codifica el cálculo de la capa, sin revelar los valores reales. Las operaciones no lineales (como ReLU, softmax) se manejan eficientemente a través de argumentos de búsqueda en DeepProve – si se calculó la salida de una activación, DeepProve puede probar que cada salida corresponde a un par de entrada-salida válido de una tabla precalculada para esa función. Capa por capa, se generan pruebas y luego se agregan en una única prueba sucinta que cubre todo el pase hacia adelante del modelo. El trabajo pesado de la criptografía se minimiza – el probador de DeepProve realiza principalmente cálculos numéricos normales (la inferencia real) más algunos compromisos criptográficos ligeros, en lugar de resolver un sistema gigante de restricciones.

  • Verificación: El verificador utiliza la prueba sucinta final junto con algunos valores públicos – típicicamente el identificador comprometido del modelo (un compromiso criptográfico con los pesos de MM), la entrada XX (si no es privada) y la salida declarada YY – para verificar la corrección. La verificación en el sistema de DeepProve implica verificar la transcripción del protocolo sum-check y los compromisos finales de polinomios o hashes. Esto es más complejo que verificar un SNARK clásico (que podría ser unos pocos emparejamientos), pero es vastamente más barato que volver a ejecutar el modelo. En los benchmarks de Lagrange, verificar una prueba de DeepProve para una CNN mediana toma del orden de 0.5 segundos en software. Eso es ~0.5s para confirmar, por ejemplo, que una red convolucional con cientos de miles de parámetros se ejecutó correctamente – más de 500× más rápido que re-computar ingenuamente esa CNN en una GPU para verificación. (De hecho, DeepProve midió una verificación hasta 521× más rápida para CNNs y 671× para MLPs en comparación con la re-ejecución). El tamaño de la prueba es lo suficientemente pequeño como para transmitirlo on-chain (decenas de KB), y la verificación podría realizarse en un contrato inteligente si fuera necesario, aunque 0.5s de cómputo podrían requerir una optimización cuidadosa del gas o una ejecución en capa 2.

Arquitectura y Herramientas: DeepProve está implementado en Rust y proporciona un conjunto de herramientas (la biblioteca zkml) para los desarrolladores. Soporta nativamente los grafos de modelos ONNX, lo que lo hace compatible con modelos de PyTorch o TensorFlow (después de exportarlos). El proceso de prueba actualmente apunta a modelos de hasta unos pocos millones de parámetros (las pruebas incluyen una red densa de 4M de parámetros). DeepProve aprovecha una combinación de componentes criptográficos: un compromiso polinómico multilineal (para comprometerse con las salidas de las capas), el protocolo sum-check para verificar los cálculos y argumentos de búsqueda para operaciones no lineales. Notablemente, el repositorio de código abierto de Lagrange reconoce que se basa en trabajos anteriores (la implementación de sum-check y GKR del proyecto Ceno de Scroll), lo que indica una intersección de zkML con la investigación de rollups de conocimiento cero.

Para lograr escalabilidad en tiempo real, Lagrange combina DeepProve con su Red de Probadores – una red descentralizada de probadores ZK especializados. La generación de pruebas pesadas puede ser delegada a esta red: cuando una aplicación necesita probar una inferencia, envía el trabajo a la red de Lagrange, donde muchos operadores (con staking en EigenLayer para seguridad) calculan las pruebas y devuelven el resultado. Esta red incentiva económicamente la generación de pruebas confiables (los trabajos maliciosos o fallidos resultan en el slashing del operador). Al distribuir el trabajo entre los probadores (y potencialmente aprovechar GPUs o ASICs), la Red de Probadores de Lagrange oculta la complejidad y el costo a los usuarios finales. El resultado es un servicio zkML rápido, escalable y descentralizado: “inferencias de IA verificables, rápidas y asequibles”.

Hitos de Rendimiento: Las afirmaciones de DeepProve están respaldadas por benchmarks contra el estado del arte anterior, Ezkl. Para una CNN con ~264k parámetros (modelo a escala de CIFAR-10), el tiempo de prueba de DeepProve fue de ~1.24 segundos frente a ~196 segundos para Ezkl – aproximadamente 158× más rápido. Para una red densa más grande con 4 millones de parámetros, DeepProve probó una inferencia en ~2.3 segundos frente a ~126.8 segundos para Ezkl (~54× más rápido). Los tiempos de verificación también se redujeron: DeepProve verificó la prueba de la CNN de 264k en ~0.6s, mientras que verificar la prueba de Ezkl (basada en Halo2) tomó más de 5 minutos en CPU en esa prueba. Las mejoras de velocidad provienen de la complejidad casi lineal de DeepProve: su probador escala aproximadamente O(n) con el número de operaciones, mientras que los probadores SNARK basados en circuitos a menudo tienen una sobrecarga superlineal (FFT y compromisos polinómicos que escalan). De hecho, el rendimiento del probador de DeepProve puede estar dentro de un orden de magnitud del tiempo de ejecución de la inferencia simple – los sistemas GKR recientes pueden ser <10× más lentos que la ejecución sin procesar para grandes multiplicaciones de matrices, un logro impresionante en ZK. Esto hace que las pruebas en tiempo real o bajo demanda sean más factibles, allanando el camino para la IA verificable en aplicaciones interactivas.

Casos de Uso: Lagrange ya está colaborando con proyectos de Web3 e IA para aplicar zkML. Los casos de uso de ejemplo incluyen: rasgos de NFT verificables (probar que una evolución generada por IA de un personaje de juego o coleccionable es calculada por el modelo autorizado), procedencia de contenido de IA (probar que una imagen o texto fue generado por un modelo específico, para combatir los deepfakes), modelos de riesgo de DeFi (probar la salida de un modelo que evalúa el riesgo financiero sin revelar datos propietarios), e inferencia de IA privada en salud o finanzas (donde un hospital puede obtener predicciones de IA con una prueba, asegurando la corrección sin exponer los datos del paciente). Al hacer que los resultados de la IA sean verificables y preserven la privacidad, DeepProve abre la puerta a una “IA en la que puedes confiar” en sistemas descentralizados – pasando de una era de “confianza ciega en modelos de caja negra” a una de “garantías objetivas”.

zkML Basado en SNARK: Ezkl y el Enfoque Halo2

El enfoque tradicional de zkML utiliza zk-SNARKs (Argumentos de Conocimiento Sucintos No Interactivos) para probar la inferencia de redes neuronales. Ezkl (de ZKonduit/Modulus Labs) es un ejemplo líder de este enfoque. Se basa en el sistema de prueba Halo2 (un SNARK de estilo PLONK con compromisos polinómicos sobre BLS12-381). Ezkl proporciona una cadena de herramientas donde un desarrollador puede tomar un modelo de PyTorch o TensorFlow, exportarlo a ONNX, y hacer que Ezkl lo compile en un circuito aritmético personalizado automáticamente.

Cómo funciona: Cada capa de la red neuronal se convierte en restricciones:

  • Las capas lineales (densas o de convolución) se convierten en colecciones de restricciones de multiplicación-suma que fuerzan los productos punto entre entradas, pesos y salidas.
  • Las capas no lineales (como ReLU, sigmoide, etc.) se manejan mediante búsquedas o restricciones por partes porque tales funciones no son polinómicas. Por ejemplo, una ReLU puede implementarse mediante un selector booleano bb con restricciones que aseguren que y=xby = x \cdot b y $0 \le b \le 1yyb=1sisix>0(unaformadehacerlo),omaˊseficientementemedianteunatabladebuˊsquedaquemapea(una forma de hacerlo), o más eficientemente mediante una tabla de búsqueda que mapeax \mapsto \max(0,x)paraunrangodevaloresdepara un rango de valores dex$. Los argumentos de búsqueda de Halo2 permiten mapear trozos de valores de 16 bits (o más pequeños), por lo que los dominios grandes (como todos los valores de 32 bits) generalmente se “trocean” en varias búsquedas más pequeñas. Este troceado aumenta el número de restricciones.
  • Las operaciones con enteros grandes o divisiones (si las hay) se dividen de manera similar en piezas pequeñas. El resultado es un gran conjunto de restricciones R1CS/PLONK adaptadas a la arquitectura específica del modelo.

Ezkl luego utiliza Halo2 para generar una prueba de que estas restricciones se cumplen dadas las entradas secretas (pesos del modelo, entradas privadas) y las salidas públicas. Herramientas e integración: Una ventaja del enfoque SNARK es que aprovecha primitivas bien conocidas. Halo2 ya se utiliza en rollups de Ethereum (por ejemplo, Zcash, zkEVMs), por lo que está probado en batalla y tiene un verificador on-chain fácilmente disponible. Las pruebas de Ezkl utilizan la curva BLS12-381, que Ethereum puede verificar a través de precompilaciones, lo que hace sencillo verificar una prueba de Ezkl en un contrato inteligente. El equipo también ha proporcionado APIs fáciles de usar; por ejemplo, los científicos de datos pueden trabajar con sus modelos en Python y usar la CLI de Ezkl para producir pruebas, sin un conocimiento profundo de los circuitos.

Fortalezas: El enfoque de Ezkl se beneficia de la generalidad y el ecosistema de los SNARKs. Soporta modelos razonablemente complejos y ya ha visto “integraciones prácticas (desde modelos de riesgo de DeFi hasta IA en juegos)”, probando tareas de ML del mundo real. Debido a que opera a nivel del grafo de computación del modelo, puede aplicar optimizaciones específicas de ML: por ejemplo, podar pesos insignificantes o cuantizar parámetros para reducir el tamaño del circuito. También significa que la confidencialidad del modelo es natural – los pesos pueden tratarse como datos de testigo privados, por lo que el verificador solo ve que algún modelo válido produjo la salida, o en el mejor de los casos un compromiso con el modelo. La verificación de las pruebas SNARK es extremadamente rápida (típicamente unos pocos milisegundos o menos on-chain), y los tamaños de las pruebas son pequeños (unos pocos kilobytes), lo cual es ideal para el uso en blockchain.

Debilidades: El rendimiento es el talón de Aquiles. La prueba basada en circuitos impone grandes sobrecargas, especialmente a medida que los modelos crecen. Se ha señalado que, históricamente, los circuitos SNARK podrían requerir un millón de veces más trabajo para el probador que simplemente ejecutar el modelo. Halo2 y Ezkl optimizan esto, pero aún así, operaciones como grandes multiplicaciones de matrices generan toneladas de restricciones. Si un modelo tiene millones de parámetros, el probador debe manejar correspondientemente millones de restricciones, realizando pesadas FFTs y multiexponenciaciones en el proceso. Esto conduce a altos tiempos de prueba (a menudo minutos u horas para modelos no triviales) y un alto uso de memoria. Por ejemplo, probar incluso una CNN relativamente pequeña (por ejemplo, unos pocos cientos de miles de parámetros) puede llevar decenas de minutos con Ezkl en una sola máquina. El equipo detrás de DeepProve citó que Ezkl tardó horas para ciertas pruebas de modelos que DeepProve puede hacer en minutos. Los modelos grandes podrían ni siquiera caber en la memoria o requerir dividirse en múltiples pruebas (que luego necesitan agregación recursiva). Si bien Halo2 está “moderadamente optimizado”, cualquier necesidad de “trocear” búsquedas o manejar operaciones de bits anchos se traduce en una sobrecarga adicional. En resumen, la escalabilidad es limitada – Ezkl funciona bien para modelos pequeños a medianos (y de hecho superó a algunas alternativas anteriores como las VMs ingenuas basadas en Stark en benchmarks), pero tiene dificultades a medida que el tamaño del modelo crece más allá de un punto.

A pesar de estos desafíos, Ezkl y bibliotecas zkML similares basadas en SNARK son importantes peldaños. Demostraron que la inferencia de ML verificada es posible on-chain y tienen un uso activo. Notablemente, proyectos como Modulus Labs demostraron la verificación de un modelo de 18 millones de parámetros on-chain usando SNARKs (con una fuerte optimización). El costo no fue trivial, pero muestra la trayectoria. Además, el Protocolo Mina tiene su propio kit de herramientas zkML que utiliza SNARKs para permitir que los contratos inteligentes en Mina (que están basados en Snark) verifiquen la ejecución de modelos de ML. Esto indica un creciente soporte multiplataforma para zkML basado en SNARK.

Enfoques Basados en STARK: ZK Transparente y Programable para ML

Los zk-STARKs (Argumentos de Conocimiento Escalables y Transparentes) ofrecen otra ruta hacia zkML. Los STARKs utilizan criptografía basada en hash (como FRI para compromisos polinómicos) y evitan cualquier configuración de confianza. A menudo operan simulando una CPU o VM y probando que la traza de ejecución es correcta. En el contexto de ML, se puede construir un STARK personalizado para la red neuronal o usar una VM STARK de propósito general para ejecutar el código del modelo.

VMs STARK Generales (RISC Zero, Cairo): Un enfoque directo es escribir código de inferencia y ejecutarlo en una VM STARK. Por ejemplo, Risc0 proporciona un entorno RISC-V donde cualquier código (por ejemplo, una implementación en C++ o Rust de una red neuronal) puede ser ejecutado y probado a través de un STARK. De manera similar, el lenguaje Cairo de StarkWare puede expresar cálculos arbitrarios (como una inferencia de LSTM o CNN) que luego son probados por el probador STARK de StarkNet. La ventaja es la flexibilidad – no necesitas diseñar circuitos personalizados para cada modelo. Sin embargo, los primeros benchmarks mostraron que las VMs STARK ingenuas eran más lentas en comparación con los circuitos SNARK optimizados para ML. En una prueba, una prueba basada en Halo2 (Ezkl) fue aproximadamente 3× más rápida que un enfoque basado en STARK en Cairo, e incluso 66× más rápida que una VM STARK RISC-V en un cierto benchmark en 2024. Esta brecha se debe a la sobrecarga de simular cada instrucción de bajo nivel en un STARK y las constantes más grandes en las pruebas STARK (el hashing es rápido pero se necesita mucho; los tamaños de las pruebas STARK son más grandes, etc.). Sin embargo, las VMs STARK están mejorando y tienen el beneficio de una configuración transparente (sin configuración de confianza) y seguridad post-cuántica. A medida que el hardware y los protocolos amigables con STARK avancen, las velocidades de prueba mejorarán.

El enfoque de DeepProve vs STARK: Curiosamente, el uso de GKR y sum-check por parte de DeepProve produce una prueba más parecida a un STARK en espíritu – es una prueba interactiva, basada en hash, sin necesidad de una cadena de referencia estructurada. La contrapartida es que sus pruebas son más grandes y la verificación es más pesada que la de un SNARK. Sin embargo, DeepProve muestra que un diseño de protocolo cuidadoso (especializado en la estructura en capas de ML) puede superar ampliamente tanto a las VMs STARK genéricas como a los circuitos SNARK en tiempo de prueba. Podemos considerar a DeepProve como un probador zkML de estilo STARK a medida (aunque usan el término zkSNARK por brevedad, no tiene la verificación de tamaño constante pequeño de un SNARK tradicional, ya que una verificación de 0.5s es más grande que la verificación típica de un SNARK). Las pruebas STARK tradicionales (como las de StarkNet) a menudo involucran decenas de miles de operaciones de campo para verificar, mientras que un SNARK verifica en quizás unas pocas docenas. Por lo tanto, una contrapartida es evidente: los SNARKs producen pruebas más pequeñas y verificadores más rápidos, mientras que los STARKs (o GKR) ofrecen una escalabilidad más fácil y sin configuración de confianza a costa del tamaño de la prueba y la velocidad de verificación.

Mejoras emergentes: La zkVM JOLT (discutida anteriormente bajo JOLTx) en realidad está produciendo SNARKs (usando compromisos tipo PLONK) pero encarna ideas que también podrían aplicarse en el contexto de STARK (las búsquedas Lasso teóricamente podrían usarse con compromisos FRI). StarkWare y otros están investigando formas de acelerar la prueba de operaciones comunes (como usar puertas personalizadas o pistas en Cairo para operaciones con enteros grandes, etc.). También está Circomlib-ML de Privacy & Scaling Explorations (PSE), que proporciona plantillas de Circom para capas de CNN, etc. – eso está orientado a SNARK, pero conceptualmente se podrían hacer plantillas similares para lenguajes STARK.

En la práctica, los ecosistemas no-Ethereum que aprovechan los STARKs incluyen StarkNet (que podría permitir la verificación on-chain de ML si alguien escribe un verificador, aunque el costo es alto) y el servicio Bonsai de Risc0 (que es un servicio de prueba off-chain que emite pruebas STARK que pueden ser verificadas en varias cadenas). A partir de 2025, la mayoría de las demos de zkML en blockchain han favorecido los SNARKs (debido a la eficiencia del verificador), pero los enfoques STARK siguen siendo atractivos por su transparencia y potencial en entornos de alta seguridad o resistentes a la cuántica. Por ejemplo, una red de cómputo descentralizada podría usar STARKs para permitir que cualquiera verifique el trabajo sin una configuración de confianza, útil para la longevidad. Además, algunas tareas de ML especializadas podrían explotar estructuras amigables con STARK: por ejemplo, los cálculos que usan intensivamente operaciones XOR/bit podrían ser más rápidos en STARKs (ya que son baratos en álgebra booleana y hashing) que en la aritmética de campo de los SNARKs.

Resumen de SNARK vs STARK para ML:

  • Rendimiento: Los SNARKs (como Halo2) tienen una enorme sobrecarga de prueba por puerta pero se benefician de potentes optimizaciones y constantes pequeñas para la verificación; los STARKs (genéricos) tienen una sobrecarga constante mayor pero escalan de manera más lineal y evitan criptografía costosa como los emparejamientos. DeepProve muestra que personalizar el enfoque (sum-check) produce un tiempo de prueba casi lineal (rápido) pero con una prueba similar a un STARK. JOLT muestra que incluso una VM general puede hacerse más rápida con un uso intensivo de búsquedas. Empíricamente, para modelos de hasta millones de operaciones: un SNARK bien optimizado (Ezkl) puede manejarlo pero podría tardar decenas de minutos, mientras que DeepProve (GKR) puede hacerlo en segundos. Las VMs STARK en 2024 probablemente estaban en un punto intermedio o peor que los SNARKs a menos que fueran especializadas (Risc0 fue más lento en las pruebas, Cairo fue más lento sin pistas personalizadas).
  • Verificación: Las pruebas SNARK se verifican más rápidamente (milisegundos, y datos mínimos on-chain ~ unos pocos cientos de bytes a unos pocos KB). Las pruebas STARK son más grandes (decenas de KB) y tardan más (decenas de ms a segundos) en verificarse debido a muchos pasos de hashing. En términos de blockchain, una verificación de SNARK podría costar, por ejemplo, ~200k de gas, mientras que una verificación de STARK podría costar millones de gas – a menudo demasiado alto para L1, aceptable en L2 o con esquemas de verificación sucintos.
  • Configuración y Seguridad: Los SNARKs como Groth16 requieren una configuración de confianza por circuito (poco amigable para modelos arbitrarios), pero los SNARKs universales (PLONK, Halo2) tienen una configuración única que puede reutilizarse para cualquier circuito hasta un cierto tamaño. Los STARKs no necesitan configuración y solo usan suposiciones de hash (más suposiciones de complejidad polinómica clásica), y son seguros post-cuánticos. Esto hace que los STARKs sean atractivos para la longevidad – las pruebas permanecen seguras incluso si surgen las computadoras cuánticas, mientras que los SNARKs actuales (basados en BLS12-381) serían rotos por ataques cuánticos.

Consolidaremos estas diferencias en una tabla comparativa en breve.

FHE para ML (FHE-o-ML): Cómputo Privado vs. Cómputo Verificable

El Cifrado Totalmente Homomórfico (FHE) es una técnica criptográfica que permite realizar cálculos directamente sobre datos cifrados. En el contexto de ML, FHE puede habilitar una forma de inferencia que preserva la privacidad: por ejemplo, un cliente puede enviar una entrada cifrada a un host de modelo, el host ejecuta la red neuronal sobre el texto cifrado sin descifrarlo, y devuelve un resultado cifrado que el cliente puede descifrar. Esto asegura la confidencialidad de los datos – el propietario del modelo no aprende nada sobre la entrada (y potencialmente el cliente solo aprende la salida, no los detalles internos del modelo si solo obtiene la salida). Sin embargo, FHE por sí solo no produce una prueba de corrección de la misma manera que lo hacen las ZKPs. El cliente debe confiar en que el propietario del modelo realmente realizó el cálculo honestamente (el texto cifrado podría haber sido manipulado). Por lo general, si el cliente tiene el modelo o espera una cierta distribución de salidas, el engaño flagrante puede ser detectado, pero los errores sutiles o el uso de una versión incorrecta del modelo no serían evidentes solo a partir de la salida cifrada.

Compensaciones en el rendimiento: FHE es notoriamente pesado en cómputo. Ejecutar una inferencia de aprendizaje profundo bajo FHE incurre en una ralentización de órdenes de magnitud. Los primeros experimentos (por ejemplo, CryptoNets en 2016) tardaron decenas de segundos en evaluar una pequeña CNN sobre datos cifrados. Para 2024, mejoras como CKKS (para aritmética aproximada) y mejores bibliotecas (Microsoft SEAL, Concrete de Zama) han reducido esta sobrecarga, pero sigue siendo grande. Por ejemplo, un usuario informó que usar Concrete-ML de Zama para ejecutar un clasificador CIFAR-10 tardó 25–30 minutos por inferencia en su hardware. Después de optimizaciones, el equipo de Zama logró ~40 segundos para esa inferencia en un servidor de 192 núcleos. Incluso 40s es extremadamente lento en comparación con una inferencia en texto plano (que podría ser de 0.01s), mostrando una sobrecarga de ~$10^3–\10^4\times$. Modelos más grandes o mayor precisión aumentan aún más el costo. Además, las operaciones FHE consumen mucha memoria y requieren un bootstrapping ocasional (un paso de reducción de ruido) que es computacionalmente costoso. En resumen, la escalabilidad es un problema importante – el estado del arte de FHE podría manejar una pequeña CNN o una regresión logística simple, pero escalar a grandes CNNs o Transformers está más allá de los límites prácticos actuales.

Ventajas de privacidad: El gran atractivo de FHE es la privacidad de los datos. La entrada puede permanecer completamente cifrada durante todo el proceso. Esto significa que un servidor no confiable puede computar sobre los datos privados de un cliente sin aprender nada sobre ellos. Por el contrario, si el modelo es sensible (propietario), se podría concebir cifrar los parámetros del modelo y hacer que el cliente realice la inferencia FHE de su lado – pero esto es menos común porque si el cliente tiene que hacer el pesado cómputo FHE, niega la idea de delegarlo a un servidor potente. Típicamente, el modelo es público o está en manos del servidor en texto claro, y los datos son cifrados por la clave del cliente. La privacidad del modelo en ese escenario no se proporciona por defecto (el servidor conoce el modelo; el cliente aprende las salidas pero no los pesos). Hay configuraciones más exóticas (como el cómputo seguro de dos partes o FHE de múltiples claves) donde tanto el modelo como los datos pueden mantenerse privados entre sí, pero eso incurre en aún más complejidad. En contraste, zkML a través de ZKPs puede asegurar la privacidad del modelo y la privacidad de los datos a la vez – el probador puede tener tanto el modelo como los datos como testigo secreto, revelando solo lo necesario al verificador.

No se necesita verificación on-chain (y ninguna es posible): Con FHE, el resultado sale cifrado para el cliente. El cliente luego lo descifra para obtener la predicción real. Si queremos usar ese resultado on-chain, el cliente (o quien tenga la clave de descifrado) tendría que publicar el resultado en texto plano y convencer a otros de que es correcto. Pero en ese punto, la confianza vuelve a estar en juego – a menos que se combine con una ZKP. En principio, se podría combinar FHE y ZKP: por ejemplo, usar FHE para mantener los datos privados durante el cómputo, y luego generar una prueba ZK de que el resultado en texto plano corresponde a un cálculo correcto. Sin embargo, combinarlos significa que pagas la penalización de rendimiento de FHE y ZKP – extremadamente impráctico con la tecnología actual. Por lo tanto, en la práctica, FHE-of-ML y zkML sirven para diferentes casos de uso:

  • FHE-of-ML: Ideal cuando el objetivo es la confidencialidad entre dos partes (cliente y servidor). Por ejemplo, un servicio en la nube puede alojar un modelo de ML y los usuarios pueden consultarlo con sus datos sensibles sin revelar los datos a la nube (y si el modelo es sensible, quizás desplegarlo a través de codificaciones amigables con FHE). Esto es excelente para servicios de ML que preservan la privacidad (predicciones médicas, etc.). El usuario todavía tiene que confiar en que el servicio ejecute fielmente el modelo (ya que no hay prueba), pero al menos se previene cualquier fuga de datos. Algunos proyectos como Zama incluso están explorando una “EVM habilitada para FHE (fhEVM)” donde los contratos inteligentes podrían operar sobre entradas cifradas, pero verificar esos cálculos on-chain requeriría que el contrato de alguna manera imponga el cálculo correcto – un desafío abierto que probablemente requiera pruebas ZK o hardware seguro especializado.
  • zkML (ZKPs): Ideal cuando el objetivo es la verificabilidad y la auditabilidad pública. Si quieres que cualquiera (o cualquier contrato) esté seguro de que “el Modelo MM fue evaluado correctamente en XX y produjo YY, las ZKPs son la solución. También proporcionan privacidad como un extra (puedes ocultar XX o YY o MM si es necesario tratándolos como entradas privadas para la prueba), pero su característica principal es la prueba de ejecución correcta.

Una relación complementaria: Vale la pena señalar que las ZKPs protegen al verificador (no aprenden nada sobre los secretos, solo que el cálculo se realizó correctamente), mientras que FHE protege los datos del probador de la parte que computa. En algunos escenarios, estos podrían combinarse – por ejemplo, una red de nodos no confiables podría usar FHE para computar sobre los datos privados de los usuarios y luego proporcionar pruebas ZK a los usuarios (o a la blockchain) de que los cálculos se realizaron de acuerdo con el protocolo. Esto cubriría tanto la privacidad como la corrección, pero el costo de rendimiento es enorme con los algoritmos actuales. Más factibles a corto plazo son los híbridos como Entornos de Ejecución Confiable (TEE) más ZKP o Cifrado Funcional más ZKP – estos están más allá de nuestro alcance, pero apuntan a proporcionar algo similar (los TEEs mantienen los datos/modelo secretos durante el cómputo, luego una ZKP puede certificar que el TEE hizo lo correcto).

En resumen, FHE-of-ML prioriza la confidencialidad de las entradas/salidas, mientras que zkML prioriza la corrección verificable (con posible privacidad). La Tabla 1 a continuación contrasta las propiedades clave:

EnfoqueRendimiento del Probador (Inferencia y Prueba)Tamaño de la Prueba y VerificaciónCaracterísticas de Privacidad¿Configuración de Confianza?¿Post-Cuántico?
zk-SNARK (Halo2, Groth16, PLONK, etc)Sobrecarga pesada del probador (hasta 10^6× el tiempo de ejecución normal sin optimizaciones; en la práctica 10^3–10^5×). Optimizado para un modelo/circuito específico; tiempo de prueba en minutos para modelos medianos, horas para grandes. Los SNARKs de zkML recientes (DeepProve con GKR) mejoran esto enormemente (sobrecarga casi lineal, por ejemplo, segundos en lugar de minutos para modelos de millones de parámetros).Pruebas muy pequeñas (a menudo < 100 KB, a veces ~unos pocos KB). La verificación es rápida: unos pocos emparejamientos o evaluaciones de polinomios (típicamente < 50 ms on-chain). Las pruebas basadas en GKR de DeepProve son más grandes (decenas–cientos de KB) y se verifican en ~0.5 s (aún mucho más rápido que volver a ejecutar el modelo).Confidencialidad de datos: Sí – las entradas pueden ser privadas en la prueba (no reveladas). Privacidad del modelo: Sí – el probador puede comprometerse con los pesos del modelo y no revelarlos. Ocultación de salida: Opcional – la prueba puede ser de una declaración sin revelar la salida (por ejemplo, “la salida tiene la propiedad P”). Sin embargo, si la salida misma se necesita on-chain, típicamente se vuelve pública. En general, los SNARKs ofrecen flexibilidad completa de conocimiento cero (oculta las partes que quieras).Depende del esquema. Groth16/EZKL requieren una configuración de confianza por circuito; PLONK/Halo2 usan una configuración universal (una vez). El sum-check GKR de DeepProve es transparente (sin configuración) – una ventaja de ese diseño.Los SNARKs clásicos (curvas BLS12-381) no son seguros PQ (vulnerables a ataques cuánticos sobre el logaritmo discreto de curvas elípticas). Algunos SNARKs más nuevos usan compromisos seguros PQ, pero Halo2/PLONK como se usan en Ezkl no son seguros PQ. GKR (DeepProve) usa compromisos de hash (por ejemplo, Poseidon/Merkle) que se conjetura son seguros PQ (dependiendo de la resistencia a la preimagen del hash).
zk-STARK (FRI, prueba basada en hash)La sobrecarga del probador es alta pero con un escalado más lineal. Típicamente 10^2–10^4× más lento que nativo para tareas grandes, con espacio para paralelizar. Las VMs STARK generales (Risc0, Cairo) mostraron un rendimiento más lento vs SNARK para ML en 2024 (por ejemplo, 3×–66× más lento que Halo2 en algunos casos). Los STARKs especializados (o GKR) pueden acercarse a una sobrecarga lineal y superar a los SNARKs para circuitos grandes.Las pruebas son más grandes: a menudo decenas de KB (creciendo con el tamaño del circuito/log(n)). El verificador debe hacer múltiples comprobaciones de hash y FFT – tiempo de verificación ~O(n^ε) para un ε pequeño (por ejemplo, ~50 ms a 500 ms dependiendo del tamaño de la prueba). On-chain, esto es más costoso (el verificador L1 de StarkWare puede costar millones de gas por prueba). Algunos STARKs soportan pruebas recursivas para comprimir el tamaño, a costa del tiempo del probador.Privacidad de datos y modelo: Un STARK puede hacerse de conocimiento cero aleatorizando los datos de la traza (agregando cegamiento a las evaluaciones de polinomios), por lo que puede ocultar entradas privadas de manera similar a un SNARK. Muchas implementaciones de STARK se centran en la integridad, pero las variantes zk-STARK sí permiten la privacidad. Así que sí, pueden ocultar entradas/modelos como los SNARKs. Ocultación de salida: igualmente posible en teoría (el probador no declara la salida como pública), pero rara vez se usa ya que usualmente la salida es lo que queremos revelar/verificar.Sin configuración de confianza. La transparencia es una característica de los STARKs – solo requieren una cadena aleatoria común (que Fiat-Shamir puede derivar). Esto los hace atractivos para un uso abierto (cualquier modelo, en cualquier momento, sin ceremonia por modelo).Sí, los STARKs se basan en suposiciones de seguridad de hash e información teórica (como el oráculo aleatorio y la dificultad de decodificar ciertas palabras de código en FRI). Se cree que son seguros contra adversarios cuánticos. Por lo tanto, las pruebas STARK son resistentes a PQ, una ventaja para la IA verificable a prueba de futuro.
FHE para ML (Cifrado Totalmente Homomórfico aplicado a la inferencia)Probador = parte que realiza el cómputo sobre datos cifrados. El tiempo de cómputo es extremadamente alto: 10^3–10^5× más lento que la inferencia en texto plano es común. Hardware de alta gama (servidores de muchos núcleos, FPGA, etc.) puede mitigar esto. Algunas optimizaciones (inferencia de baja precisión, parámetros FHE nivelados) pueden reducir la sobrecarga, pero hay un impacto fundamental en el rendimiento. FHE es actualmente práctico para modelos pequeños o modelos lineales simples; las redes profundas siguen siendo un desafío más allá de tamaños de juguete.No se genera ninguna prueba. El resultado es una salida cifrada. La verificación en el sentido de comprobar la corrección no es proporcionada por FHE solo – se confía en que la parte que computa no haga trampa. (Si se combina con hardware seguro, se podría obtener una atestación; de lo contrario, un servidor malicioso podría devolver un resultado cifrado incorrecto que el cliente descifraría a una salida errónea sin saber la diferencia).Confidencialidad de datos: Sí – la entrada está cifrada, por lo que la parte que computa no aprende nada sobre ella. Privacidad del modelo: Si el propietario del modelo está haciendo el cómputo sobre la entrada cifrada, el modelo está en texto plano de su lado (no protegido). Si los roles se invierten (el cliente tiene el modelo cifrado y el servidor computa), el modelo podría mantenerse cifrado, pero este escenario es menos común. Hay técnicas como el ML seguro de dos partes que combinan FHE/MPC para proteger ambos, pero van más allá del FHE simple. Ocultación de salida: Por defecto, la salida del cómputo está cifrada (solo descifrable por la parte con la clave secreta, usualmente el propietario de la entrada). Así que la salida está oculta para el servidor que computa. Si queremos que la salida sea pública, el cliente puede descifrarla y revelarla.No se necesita configuración. Cada usuario genera su propio par de claves para el cifrado. La confianza se basa en que las claves permanezcan secretas.La seguridad de los esquemas FHE (por ejemplo, BFV, CKKS, TFHE) se basa en problemas de retículos (Learning With Errors), que se cree que son resistentes a los ataques cuánticos (al menos no se conoce ningún algoritmo cuántico eficiente). Por lo tanto, FHE se considera generalmente seguro post-cuántico.

Tabla 1: Comparación de los enfoques zk-SNARK, zk-STARK y FHE para la inferencia de aprendizaje automático (compensaciones de rendimiento y privacidad).

Casos de Uso e Implicaciones para Aplicaciones Web3

La convergencia de la IA y la blockchain a través de zkML desbloquea nuevos y potentes patrones de aplicación en Web3:

  • Agentes Autónomos Descentralizados y Toma de Decisiones On-Chain: Los contratos inteligentes o las DAOs pueden incorporar decisiones impulsadas por IA con garantías de corrección. Por ejemplo, imagina una DAO que utiliza una red neuronal para analizar las condiciones del mercado antes de ejecutar operaciones. Con zkML, el contrato inteligente de la DAO puede requerir una prueba zkSNARK de que el modelo de ML autorizado (con un compromiso de hash conocido) se ejecutó con los datos más recientes y produjo la acción recomendada, antes de que se acepte la acción. Esto evita que actores maliciosos inyecten una predicción falsa – la cadena verifica el cómputo de la IA. Con el tiempo, incluso se podrían tener agentes autónomos completamente on-chain (contratos que consultan IA off-chain o contienen modelos simplificados) tomando decisiones en DeFi o juegos, con todos sus movimientos probados como correctos y conformes a las políticas a través de pruebas zk. Esto aumenta la confianza en los agentes autónomos, ya que su “pensamiento” es transparente y verificable en lugar de una caja negra.

  • Mercados de Cómputo Verificable: Proyectos como Lagrange están creando efectivamente mercados de computación verificable – los desarrolladores pueden externalizar la inferencia de ML pesada a una red de probadores y recibir a cambio una prueba con el resultado. Esto es análogo a la computación en la nube descentralizada, pero con confianza incorporada: no necesitas confiar en el servidor, solo en la prueba. Es un cambio de paradigma para los oráculos y la computación off-chain. Protocolos como la próxima DSC (capa de secuenciación descentralizada) de Ethereum o las redes de oráculos podrían usar esto para proporcionar fuentes de datos o análisis con garantías criptográficas. Por ejemplo, un oráculo podría suministrar “el resultado del modelo X en la entrada Y” y cualquiera puede verificar la prueba adjunta on-chain, en lugar de confiar en la palabra del oráculo. Esto podría habilitar IA-como-servicio verificable en la blockchain: cualquier contrato puede solicitar un cómputo (como “califica estos riesgos crediticios con mi modelo privado”) y aceptar la respuesta solo con una prueba válida. Proyectos como Gensyn están explorando mercados de entrenamiento e inferencia descentralizados utilizando estas técnicas de verificación.

  • NFTs y Juegos – Procedencia y Evolución: En los juegos de blockchain o coleccionables NFT, zkML puede probar que los rasgos o movimientos del juego fueron generados por modelos de IA legítimos. Por ejemplo, un juego podría permitir que una IA evolucione los atributos de una mascota NFT. Sin ZK, un usuario astuto podría modificar la IA o el resultado para obtener una mascota superior. Con zkML, el juego puede requerir una prueba de que “las nuevas estadísticas de la mascota fueron calculadas por el modelo de evolución oficial sobre las estadísticas antiguas de la mascota”, evitando trampas. De manera similar para los NFTs de arte generativo: un artista podría lanzar un modelo generativo como un compromiso; más tarde, al acuñar NFTs, probar que cada imagen fue producida por ese modelo dada una semilla, garantizando la autenticidad (e incluso haciéndolo sin revelar el modelo exacto al público, preservando la propiedad intelectual del artista). Esta verificación de procedencia asegura la autenticidad de una manera similar a la aleatoriedad verificable – excepto que aquí es creatividad verificable.

  • IA que Preserva la Privacidad en Dominios Sensibles: zkML permite la confirmación de resultados sin exponer las entradas. En el sector de la salud, los datos de un paciente podrían ser procesados por un modelo de diagnóstico de IA por un proveedor de la nube; el hospital recibe un diagnóstico y una prueba de que el modelo (que podría ser propiedad privada de una compañía farmacéutica) se ejecutó correctamente sobre los datos del paciente. Los datos del paciente permanecen privados (solo se usó una forma cifrada o comprometida en la prueba), y los pesos del modelo permanecen propietarios – sin embargo, el resultado es confiable. Los reguladores o las aseguradoras también podrían verificar que solo se usaron modelos aprobados. En finanzas, una empresa podría demostrar a un auditor o regulador que su modelo de riesgo se aplicó a sus datos internos y produjo ciertas métricas sin revelar los datos financieros sensibles subyacentes. Esto permite el cumplimiento y la supervisión con garantías criptográficas en lugar de confianza manual.

  • Interoperabilidad Cross-Chain y Off-Chain: Debido a que las pruebas de conocimiento cero son fundamentalmente portátiles, zkML puede facilitar resultados de IA cross-chain. Una cadena podría tener una aplicación intensiva en IA ejecutándose off-chain; puede publicar una prueba del resultado en una blockchain diferente, que lo aceptará sin necesidad de confianza. Por ejemplo, considera una DAO multi-cadena que utiliza una IA para agregar el sentimiento en las redes sociales (datos off-chain). El análisis de IA (NLP complejo sobre grandes datos) se realiza off-chain por un servicio que luego publica una prueba en una pequeña blockchain (o múltiples cadenas) de que “el análisis se realizó correctamente y la puntuación de sentimiento de salida = 0.85”. Todas las cadenas pueden verificar y usar ese resultado en su lógica de gobernanza, sin que cada una necesite volver a ejecutar el análisis. Este tipo de cómputo verificable interoperable es lo que la red de Lagrange pretende soportar, sirviendo a múltiples rollups o L1s simultáneamente. Elimina la necesidad de puentes confiables o suposiciones de oráculos al mover resultados entre cadenas.

  • Alineación y Gobernanza de la IA: En una nota más prospectiva, zkML ha sido destacado como una herramienta para la gobernanza y seguridad de la IA. Las declaraciones de visión de Lagrange, por ejemplo, argumentan que a medida que los sistemas de IA se vuelven más poderosos (incluso superinteligentes), la verificación criptográfica será esencial para asegurar que sigan las reglas acordadas. Al requerir que los modelos de IA produzcan pruebas de su razonamiento o restricciones, los humanos retienen un grado de control – “no puedes confiar en lo que no puedes verificar”. Si bien esto es especulativo e involucra tanto aspectos sociales como técnicos, la tecnología podría hacer cumplir que un agente de IA que se ejecuta de forma autónoma todavía demuestre que está utilizando un modelo aprobado y que no ha sido manipulado. Las redes de IA descentralizadas podrían usar pruebas on-chain para verificar las contribuciones (por ejemplo, una red de nodos que entrena colaborativamente un modelo puede probar que cada actualización se calculó fielmente). Por lo tanto, zkML podría desempeñar un papel en asegurar que los sistemas de IA sigan siendo responsables ante los protocolos definidos por humanos, incluso en entornos descentralizados o no controlados.

En conclusión, zkML y la IA verificable on-chain representan una convergencia de la criptografía avanzada y el aprendizaje automático que promete mejorar la confianza, la transparencia y la privacidad en las aplicaciones de IA. Al comparar los principales enfoques – zk-SNARKs, zk-STARKs y FHE – vemos un espectro de compensaciones entre rendimiento y privacidad, cada uno adecuado para diferentes escenarios. Los frameworks basados en SNARK como Ezkl y las innovaciones como DeepProve de Lagrange han hecho factible probar inferencias sustanciales de redes neuronales con un esfuerzo práctico, abriendo la puerta a implementaciones en el mundo real de IA verificable. Los enfoques basados en STARK y VM prometen una mayor flexibilidad y seguridad post-cuántica, que se volverán importantes a medida que el campo madure. FHE, aunque no es una solución para la verificabilidad, aborda la necesidad complementaria de la computación de ML confidencial, y en combinación con ZKPs o en contextos privados específicos puede empoderar a los usuarios para aprovechar la IA sin sacrificar la privacidad de los datos.

Las implicaciones para Web3 son significativas: podemos prever contratos inteligentes reaccionando a predicciones de IA, sabiendo que son correctas; mercados de cómputo donde los resultados se venden sin confianza; identidades digitales (como la prueba de humanidad de Worldcoin a través de IA de iris) protegidas por zkML para confirmar que alguien es humano sin filtrar su imagen biométrica; y en general una nueva clase de “inteligencia demostrable” que enriquece las aplicaciones de blockchain. Quedan muchos desafíos – rendimiento para modelos muy grandes, ergonomía para desarrolladores y la necesidad de hardware especializado – pero la trayectoria es clara. Como señaló un informe, “las ZKPs de hoy pueden soportar modelos pequeños, pero los modelos de moderados a grandes rompen el paradigma”; sin embargo, los rápidos avances (mejoras de velocidad de 50×–150× con DeepProve sobre el estado del arte anterior) están empujando ese límite hacia afuera. Con la investigación en curso (por ejemplo, sobre aceleración de hardware y prueba distribuida), podemos esperar que modelos de IA progresivamente más grandes y complejos se vuelvan demostrables. zkML podría evolucionar pronto de demos de nicho a un componente esencial de la infraestructura de IA confiable, asegurando que a medida que la IA se vuelve ubicua, lo haga de una manera que sea auditable, descentralizada y alineada con la privacidad y seguridad del usuario.

ETHDenver 2025: Tendencias clave de Web3 y perspectivas del festival

· 29 min de lectura

ETHDenver 2025, bajo la marca del “Año de los Regenerados”, consolidó su estatus como una de las mayores reuniones de Web3 del mundo. Abarcando la BUIDLWeek (23–26 de febrero), el Evento Principal (27 de febrero–2 de marzo) y un Retiro en la Montaña post-conferencia, el festival atrajo a una cifra esperada de más de 25,000 participantes. Constructores, desarrolladores, inversores y creativos de más de 125 países convergieron en Denver para celebrar el ethos de descentralización e innovación de Ethereum. Fiel a sus raíces comunitarias, ETHDenver siguió siendo de asistencia gratuita, financiado por la comunidad y repleto de contenido: desde hackatones y talleres hasta paneles, eventos de presentación y fiestas. La historia del evento sobre los “Regenerados” defendiendo la descentralización estableció un tono que enfatizaba los bienes públicos y la construcción colaborativa, incluso en medio de un panorama tecnológico competitivo. El resultado fue una semana de actividad de construcción de alta energía y discusiones con visión de futuro, ofreciendo una instantánea de las tendencias emergentes de Web3 y perspectivas accionables para los profesionales de la industria.

ETHDenver 2025

Tendencias emergentes de Web3 destacadas por los ponentes

Ninguna narrativa única dominó ETHDenver 2025; en su lugar, un amplio espectro de tendencias Web3 tomó el protagonismo. A diferencia del año pasado (cuando el restaking a través de EigenLayer se robó el espectáculo), la agenda de 2025 fue un poco de todo: desde redes de infraestructura física descentralizada (DePIN) hasta agentes de IA, desde el cumplimiento normativo hasta la tokenización de activos del mundo real (RWA), además de privacidad, interoperabilidad y más. De hecho, el fundador de ETHDenver, John Paller, abordó las preocupaciones sobre el contenido multicadena señalando que “más del 95 % de nuestros patrocinadores y el 90 % del contenido está alineado con ETH/EVM”; sin embargo, la presencia de ecosistemas no pertenecientes a Ethereum subrayó la interoperabilidad como un tema clave. Los principales ponentes reflejaron estas áreas de tendencia: por ejemplo, el escalado con zk-rollup y Capa 2 fue destacado por Alex Gluchowski (CEO de Matter Labs/zkSync), mientras que la innovación multicadena provino de Adeniyi Abiodun de Mysten Labs (Sui) y Albert Chon de Injective.

La convergencia de la IA y Web3 surgió como una fuerte corriente subyacente. Numerosas charlas y eventos paralelos se centraron en agentes de IA descentralizados y cruces entre “DeFi e IA”. Un Día del Agente de IA dedicado mostró demostraciones de IA on-chain, y un colectivo de 14 equipos (incluido el kit de desarrollador de Coinbase y la unidad de IA de NEAR) incluso anunció la Open Agents Alliance (OAA), una iniciativa para proporcionar acceso a IA sin permisos y gratuito mediante la agrupación de infraestructura Web3. Esto indica un creciente interés en agentes autónomos y dApps impulsadas por IA como una nueva frontera para los constructores. De la mano de la IA, DePIN (infraestructura física descentralizada) fue otra palabra de moda: múltiples paneles (p. ej., Día de DePIN, Cumbre DePIN) exploraron proyectos que conectan la blockchain con redes físicas (desde telecomunicaciones hasta movilidad).

Cuckoo AI Network causó sensación en ETHDenver 2025, presentando su innovador mercado descentralizado de servicio de modelos de IA diseñado para creadores y desarrolladores. Con una presencia convincente tanto en el hackatón como en los eventos paralelos liderados por la comunidad, Cuckoo AI atrajo una atención significativa de los desarrolladores intrigados por su capacidad para monetizar recursos de GPU/CPU e integrar fácilmente APIs de IA on-chain. Durante su taller dedicado y sesión de networking, Cuckoo AI destacó cómo la infraestructura descentralizada podría democratizar eficientemente el acceso a servicios avanzados de IA. Esto se alinea directamente con las tendencias más amplias del evento, particularmente la intersección de la blockchain con la IA, DePIN y la financiación de bienes públicos. Para los inversores y desarrolladores en ETHDenver, Cuckoo AI surgió como un claro ejemplo de cómo los enfoques descentralizados pueden impulsar la próxima generación de dApps e infraestructura impulsadas por IA, posicionándose como una atractiva oportunidad de inversión dentro del ecosistema Web3.

La privacidad, la identidad y la seguridad siguieron siendo prioritarias. Los ponentes y talleres abordaron temas como las pruebas de conocimiento cero (la presencia de zkSync), la gestión de la identidad y las credenciales verificables (una categoría dedicada de Privacidad y Seguridad en el hackatón), y cuestiones legales/regulatorias (una cumbre legal on-chain formó parte de las pistas del festival). Otra discusión notable fue el futuro de la recaudación de fondos y la descentralización de la financiación: un debate en el Escenario Principal entre Haseeb Qureshi de Dragonfly Capital y Matt O’Connor de Legion (una plataforma “similar a las ICO”) sobre ICOs frente a la financiación de VC cautivó a los asistentes. Este debate destacó modelos emergentes como las ventas de tokens comunitarias que desafían las rutas tradicionales de VC, una tendencia importante para las startups de Web3 que navegan la obtención de capital. La conclusión para los profesionales es clara: Web3 en 2025 es multidisciplinario, abarcando finanzas, IA, activos reales y cultura, y mantenerse informado significa mirar más allá de cualquier ciclo de sobreexpectación para ver el espectro completo de la innovación.

Patrocinadores y sus áreas de enfoque estratégico

La lista de patrocinadores de ETHDenver en 2025 parece un quién es quién de las capas 1, capas 2 y proyectos de infraestructura Web3, cada uno aprovechando el evento para avanzar en sus objetivos estratégicos. Los protocolos de cadena cruzada y multicadena tuvieron una fuerte presencia. Por ejemplo, Polkadot fue uno de los principales patrocinadores con un considerable fondo de recompensas de 80,000 ,incentivandoalosconstructoresacrearDAppsyappchainsdecadenacruzada.Demanerasimilar,BNBChain,Flow,HederayBase(laL2deCoinbase)ofrecieroncadaunohasta50,000, incentivando a los constructores a crear DApps y appchains de cadena cruzada. De manera similar, **BNB Chain, Flow, Hedera y Base (la L2 de Coinbase)** ofrecieron cada uno hasta 50,000 para proyectos que se integraran con sus ecosistemas, señalando su impulso para atraer a los desarrolladores de Ethereum. Incluso ecosistemas tradicionalmente separados como Solana e Internet Computer se unieron con desafíos patrocinados (p. ej., Solana coorganizó un evento de DePIN, e Internet Computer ofreció una recompensa de “Solo posible en ICP”). Esta presencia interecosistémica generó cierto escrutinio de la comunidad, pero el equipo de ETHDenver señaló que la gran mayoría del contenido permaneció alineado con Ethereum. El efecto neto fue que la interoperabilidad se convirtió en un tema central: los patrocinadores buscaron posicionar sus plataformas como extensiones complementarias del universo Ethereum.

Las soluciones de escalado y los proveedores de infraestructura también estuvieron en primer plano. Las principales L2 de Ethereum como Optimism y Arbitrum tuvieron grandes stands y desafíos patrocinados (las recompensas de Optimism llegaron hasta los 40,000 ),reforzandosuenfoqueenincorporardesarrolladoresalosrollups.NuevosparticipantescomoZkSyncyZircuit(unproyectoquemuestraunenfoquederollupL2)enfatizaronlatecnologıˊadeconocimientoceroeinclusocontribuyeronconSDKs(ZkSyncpromovioˊsuSDKSmartSignOnparauniniciodesesioˊnfaˊcildeusar,quelosequiposdelhackatoˊnutilizaronconentusiasmo).Elrestakingylainfraestructuradeblockchainmodularfueotrointereˊsdelospatrocinadores:EigenLayer(pioneroenelrestaking)tuvosupropiacategorıˊade50,000), reforzando su enfoque en incorporar desarrolladores a los rollups. Nuevos participantes como **ZkSync y Zircuit** (un proyecto que muestra un enfoque de rollup L2) enfatizaron la tecnología de conocimiento cero e incluso contribuyeron con SDKs (ZkSync promovió su SDK Smart Sign-On para un inicio de sesión fácil de usar, que los equipos del hackatón utilizaron con entusiasmo). El **restaking y la infraestructura de blockchain modular** fue otro interés de los patrocinadores: **EigenLayer** (pionero en el restaking) tuvo su propia categoría de 50,000 e incluso coorganizó un evento sobre “Restaking y DeFAI (IA Descentralizada)”, combinando su modelo de seguridad con temas de IA. Los oráculos y el middleware de interoperabilidad estuvieron representados por empresas como Chainlink y Wormhole, cada una emitiendo recompensas por usar sus protocolos.

Notablemente, las aplicaciones de consumo y herramientas de Web3 contaron con el apoyo de patrocinadores para mejorar la experiencia del usuario. La presencia de Uniswap, con uno de los stands más grandes, no fue solo para exhibirse: el gigante de DeFi utilizó el evento para anunciar nuevas funciones de billetera como rampas de salida de fiat integradas, alineándose con su enfoque de patrocinio en la usabilidad de DeFi. Plataformas centradas en la identidad y la comunidad como Galxe (Gravity) y Lens Protocol patrocinaron desafíos en torno a las redes sociales y credenciales on-chain. Incluso las empresas tecnológicas tradicionales mostraron interés: PayPal y Google Cloud organizaron un happy hour sobre stablecoins y pagos para discutir el futuro de los pagos en cripto. Esta mezcla de patrocinadores muestra que los intereses estratégicos abarcaron desde la infraestructura central hasta las aplicaciones para el usuario final, todos convergiendo en ETHDenver para proporcionar recursos (APIs, SDKs, subvenciones) a los desarrolladores. Para los profesionales de Web3, el fuerte patrocinio de las capas 1, capas 2 e incluso de las fintechs de Web2 destaca dónde está invirtiendo la industria: interoperabilidad, escalabilidad, seguridad y hacer que las criptomonedas sean útiles para la próxima ola de usuarios.

Lo más destacado del hackatón: Proyectos innovadores y ganadores

En el corazón de ETHDenver se encuentra su legendario #BUIDLathon, un hackatón que ha crecido hasta convertirse en el hackatón de blockchain más grande del mundo con miles de desarrolladores. En 2025, el hackatón ofreció una bolsa de premios récord de más de 1,043,333 $ para impulsar la innovación. Las recompensas de más de 60 patrocinadores se dirigieron a dominios clave de Web3, dividiendo la competencia en categorías como: DeFi e IA, NFTs y Gaming, Infraestructura y Escalabilidad, Privacidad y Seguridad, y DAOs y Bienes Públicos. El diseño de estas categorías es revelador en sí mismo; por ejemplo, emparejar DeFi con IA sugiere el surgimiento de aplicaciones financieras impulsadas por IA, mientras que una categoría dedicada a Bienes Públicos reafirma el enfoque de la comunidad en las finanzas regenerativas y el desarrollo de código abierto. Cada categoría fue respaldada por patrocinadores que ofrecían premios por el mejor uso de su tecnología (p. ej., Polkadot y Uniswap para DeFi, Chainlink para interoperabilidad, Optimism para soluciones de escalado). Los organizadores incluso implementaron la votación cuadrática para la evaluación, permitiendo que la comunidad ayudara a destacar los mejores proyectos, con los ganadores finales elegidos por jueces expertos.

El resultado fue una avalancha de proyectos de vanguardia, muchos de los cuales ofrecen un vistazo al futuro de Web3. Entre los ganadores notables se incluyó un juego multijugador on-chain “0xCaliber”, un shooter en primera persona que ejecuta interacciones de blockchain en tiempo real dentro de un juego FPS clásico. 0xCaliber impresionó a los jueces al demostrar un verdadero gaming on-chain: los jugadores compran su entrada con cripto, “disparan” balas on-chain y usan trucos de cadena cruzada para recolectar y cobrar el botín, todo en tiempo real. Este tipo de proyecto muestra la creciente madurez del gaming Web3 (integrando motores de juego como Unity con contratos inteligentes) y la creatividad en la fusión del entretenimiento con la criptoeconomía. Otra categoría de hacks destacados fue la que fusionaba IA con Ethereum: los equipos construyeron plataformas de “agentes” que usan contratos inteligentes para coordinar servicios de IA, inspirados por el anuncio de la Open Agents Alliance. Por ejemplo, un proyecto del hackatón integró auditores de contratos inteligentes impulsados por IA (generando automáticamente casos de prueba de seguridad para contratos), alineándose con la tendencia de IA descentralizada observada en la conferencia.

Los proyectos de infraestructura y herramientas también fueron prominentes. Algunos equipos abordaron la abstracción de cuentas y la experiencia del usuario, utilizando kits de herramientas de patrocinadores como el Smart Sign-On de zkSync para crear flujos de inicio de sesión sin billetera para dApps. Otros trabajaron en puentes de cadena cruzada e integraciones de Capa 2, reflejando el continuo interés de los desarrolladores en la interoperabilidad. En la categoría de Bienes Públicos y DAO, algunos proyectos abordaron el impacto social en el mundo real, como una dApp para identidad descentralizada y ayuda para personas sin hogar (aprovechando NFTs y fondos comunitarios, una idea que recuerda a hacks de ReFi anteriores). Los conceptos de finanzas regenerativas (ReFi), como la financiación de bienes públicos a través de mecanismos novedosos, continuaron apareciendo, haciendo eco del tema regenerativo de ETHDenver.

Aunque los ganadores finales se celebraron al final del evento principal, el verdadero valor residía en la cantera de innovación: se recibieron más de 400 presentaciones de proyectos, muchos de los cuales seguirán vivos más allá del evento. El hackatón de ETHDenver tiene un historial de sembrar futuras startups (de hecho, algunos proyectos pasados del BUIDLathon se han convertido en patrocinadores). Para inversores y tecnólogos, el hackatón proporcionó una ventana a las ideas más innovadoras, señalando que la próxima ola de startups de Web3 podría surgir en áreas como el gaming on-chain, las dApps con infusión de IA, la infraestructura de cadena cruzada y las soluciones dirigidas al impacto social. Con casi 1 millón de dólares en recompensas distribuidas a los desarrolladores, los patrocinadores demostraron su compromiso con hechos para cultivar estas innovaciones.

Eventos de networking e interacciones con inversores

ETHDenver no se trata solo de escribir código, sino también de hacer contactos. En 2025, el festival potenció el networking con eventos tanto formales como informales diseñados para startups, inversores y constructores de comunidades. Un evento destacado fue el Startup Rodeo de Bufficorn Ventures (BV), una exhibición de alta energía donde 20 startups seleccionadas presentaron sus demos a inversores en una exposición al estilo de una feria de ciencias. Celebrado el 1 de marzo en el salón principal, el Startup Rodeo fue descrito más como “citas rápidas” que como un concurso de pitches: los fundadores atendían mesas para presentar sus proyectos uno a uno mientras todos los inversores asistentes recorrían el recinto. Este formato aseguró que incluso los equipos en etapas tempranas pudieran conseguir tiempo de calidad cara a cara con VCs, socios estratégicos o colaboradores. Muchas startups usaron esto como una plataforma de lanzamiento para encontrar clientes y financiación, aprovechando la presencia concentrada de fondos de Web3 en ETHDenver.

En el último día de la conferencia, el BV BuffiTank Pitchfest tomó el protagonismo en el escenario principal: una competencia de pitches más tradicional con 10 de las startups en etapa inicial “más innovadoras” de la comunidad de ETHDenver. Estos equipos (distintos de los ganadores del hackatón) presentaron sus modelos de negocio a un panel de VCs de primer nivel y líderes de la industria, compitiendo por reconocimientos y posibles ofertas de inversión. El Pitchfest ilustró el papel de ETHDenver como un generador de oportunidades de negocio: estaba explícitamente dirigido a equipos “ya organizados... en busca de inversión, clientes y exposición”, especialmente aquellos conectados a la comunidad de SporkDAO. La recompensa para los ganadores no fue un simple premio en efectivo, sino la promesa de unirse al portafolio de Bufficorn Ventures u otras cohortes de aceleradoras. En esencia, ETHDenver creó su propio mini “Shark Tank” para Web3, catalizando la atención de los inversores sobre los mejores proyectos de la comunidad.

Más allá de estas exhibiciones oficiales, la semana estuvo repleta de eventos de networking para inversores y fundadores. Según una guía curada por Belong, entre los eventos paralelos notables se incluyó un “Meet the VCs” Happy Hour organizado por CertiK Ventures el 27 de febrero, un StarkNet VC & Founders Lounge el 1 de marzo, e incluso eventos informales como un evento de pitches temático de golf “Pitch & Putt”. Estas reuniones proporcionaron entornos relajados para que los fundadores se codearan con capitalistas de riesgo, lo que a menudo conducía a reuniones de seguimiento después de la conferencia. La presencia de muchas firmas de VC emergentes también se sintió en los paneles; por ejemplo, una sesión en el EtherKnight Stage destacó nuevos fondos como Reflexive Capital, Reforge VC, Topology, Metalayer y Hash3 y qué tendencias les entusiasman más. Las primeras indicaciones sugieren que estos VCs estaban interesados en áreas como las redes sociales descentralizadas, la IA y la nueva infraestructura de Capa 1 (cada fondo buscando un nicho para diferenciarse en un panorama de VC competitivo).

Para los profesionales que buscan capitalizar el networking de ETHDenver: la conclusión clave es el valor de los eventos paralelos y los encuentros específicos. Los acuerdos y las asociaciones a menudo germinan durante un café o un cóctel en lugar de en el escenario. La miríada de eventos para inversores de ETHDenver 2025 demuestra que la comunidad de financiación de Web3 está buscando activamente talento e ideas, incluso en un mercado austero. Las startups que llegaron preparadas con demos pulidas y una propuesta de valor clara (a menudo aprovechando el impulso del hackatón del evento) encontraron audiencias receptivas. Mientras tanto, los inversores utilizaron estas interacciones para medir el pulso de la comunidad de desarrolladores: ¿qué problemas están resolviendo los constructores más brillantes este año? En resumen, ETHDenver reforzó que el networking es tan importante como el BUIDLing: es un lugar donde un encuentro casual puede conducir a una inversión semilla o donde una conversación perspicaz puede encender la próxima gran colaboración.

Tendencias de capital de riesgo y oportunidades de inversión en Web3

Una narrativa sutil pero importante a lo largo de ETHDenver 2025 fue el panorama en evolución del propio capital de riesgo en Web3. A pesar de los altibajos del mercado cripto en general, los inversores en ETHDenver mostraron un fuerte apetito por proyectos prometedores de Web3. Reporteros de Blockworks en el terreno notaron “cuánto capital privado sigue fluyendo hacia las criptomonedas, sin dejarse intimidar por los vientos en contra macroeconómicos”, con valoraciones en la etapa semilla a menudo por las nubes para las ideas más candentes. De hecho, la gran cantidad de VCs presentes, desde fondos nativos de cripto hasta inversores tecnológicos tradicionales incursionando en Web3, dejó claro que ETHDenver sigue siendo un centro de negociaciones.

Se podían discernir enfoques temáticos emergentes a partir de lo que los VCs discutían y patrocinaban. La prevalencia del contenido de IA x Cripto (categorías de hackatón, paneles, etc.) no fue solo una tendencia de desarrolladores; refleja el interés de los inversores en el nexo “DeFi se encuentra con la IA”. Muchos inversores están observando startups que aprovechan el aprendizaje automático o los agentes autónomos en la blockchain, como lo demuestran las hackhouses y cumbres de IA patrocinadas por VCs. De manera similar, el fuerte enfoque en DePIN y la tokenización de activos del mundo real (RWA) indica que los fondos ven oportunidades en proyectos que conectan la blockchain con activos de la economía real y dispositivos físicos. El dedicado Día de RWA (26 de febrero), un evento B2B sobre el futuro de los activos tokenizados, sugiere que los cazatalentos de riesgo están buscando activamente en esa arena al próximo Goldfinch o Centrifuge (es decir, plataformas que llevan las finanzas del mundo real a la cadena).

Otra tendencia observable fue una creciente experimentación con modelos de financiación. El debate mencionado sobre ICOs vs VCs no fue solo teatro de conferencia; refleja un movimiento real en el capital de riesgo hacia una financiación más centrada en la comunidad. Algunos VCs en ETHDenver indicaron estar abiertos a modelos híbridos (p. ej., lanzamientos de tokens respaldados por VCs que involucran a la comunidad en las primeras rondas). Además, la financiación de bienes públicos e inversión de impacto tuvo un lugar en la mesa. Con el ethos de regeneración de ETHDenver, incluso los inversores discutieron cómo apoyar la infraestructura de código abierto y a los desarrolladores a largo plazo, más allá de simplemente perseguir el próximo boom de DeFi o NFT. Paneles como “Financiando el Futuro: Modelos en Evolución para Startups Onchain” exploraron alternativas como subvenciones, inversiones de tesorerías de DAO y financiación cuadrática para complementar el dinero tradicional de VC. Esto apunta a una industria que madura en cómo se capitalizan los proyectos: una mezcla de capital de riesgo, fondos de ecosistema y financiación comunitaria trabajando en conjunto.

Desde el punto de vista de las oportunidades, los profesionales e inversores de Web3 pueden extraer algunas perspectivas accionables de la dinámica de riesgo de ETHDenver: (1) La infraestructura sigue siendo el rey: muchos VCs expresaron que el sector de 'picos y palas' (escalado L2, seguridad, herramientas de desarrollo) sigue siendo una inversión de alto valor como la columna vertebral de la industria. (2) Nuevas verticales como la convergencia IA/blockchain y DePIN son fronteras de inversión emergentes: ponerse al día en estas áreas o encontrar startups allí podría ser gratificante. (3) Los proyectos impulsados por la comunidad y los bienes públicos podrían ver una financiación novedosa: los inversores inteligentes están descubriendo cómo apoyarlos de manera sostenible (por ejemplo, invirtiendo en protocolos que permiten la gobernanza descentralizada o la propiedad compartida). En general, ETHDenver 2025 demostró que, si bien el panorama de riesgo de Web3 es competitivo, está rebosante de convicción: hay capital disponible para aquellos que construyen el futuro de DeFi, NFTs, gaming y más, e incluso las ideas nacidas en el mercado bajista pueden encontrar respaldo si apuntan a la tendencia correcta.

Recursos para desarrolladores, kits de herramientas y sistemas de apoyo

ETHDenver siempre ha estado enfocado en los constructores, y 2025 no fue la excepción: funcionó como una conferencia de desarrolladores de código abierto con una plétora de recursos y apoyo para los desarrolladores de Web3. Durante la BUIDLWeek, los asistentes tuvieron acceso a talleres en vivo, bootcamps técnicos y mini-cumbres que abarcaban diversos dominios. Por ejemplo, los desarrolladores podían unirse a una Cumbre de Tecnología de Vanguardia para experimentar con los últimos protocolos, o asistir a una Cumbre Legal On-Chain para aprender sobre el desarrollo de contratos inteligentes conformes a la ley. Los principales patrocinadores y equipos de blockchain realizaron sesiones prácticas: el equipo de Polkadot organizó hacker houses y talleres sobre cómo lanzar parachains; EigenLayer dirigió un “bootcamp de restaking” para enseñar a los desarrolladores a aprovechar su capa de seguridad; Polygon y zkSync ofrecieron tutoriales sobre la construcción de dApps escalables con tecnología de conocimiento cero. Estas sesiones proporcionaron un invaluable tiempo cara a cara con los ingenieros principales, permitiendo a los desarrolladores obtener ayuda con la integración y aprender nuevos kits de herramientas de primera mano.

A lo largo del evento principal, el recinto contó con un #BUIDLHub y Makerspace dedicados donde los constructores podían codificar en un entorno colaborativo y acceder a mentores. Los organizadores de ETHDenver publicaron una detallada Guía BUIDLer y facilitaron un programa de mentoría en el lugar (expertos de los patrocinadores estaban disponibles para desbloquear a los equipos en problemas técnicos). Las empresas de herramientas para desarrolladores también estuvieron presentes en masa, desde Alchemy e Infura (para APIs de blockchain) hasta Hardhat y Foundry (para el desarrollo de contratos inteligentes). Muchas revelaron nuevos lanzamientos o herramientas beta en el evento. Por ejemplo, el equipo de MetaMask presentó una importante actualización de la billetera con abstracción de gas y un SDK mejorado para desarrolladores de dApps, con el objetivo de simplificar cómo las aplicaciones cubren las tarifas de gas para los usuarios. Varios proyectos lanzaron SDKs o bibliotecas de código abierto: se introdujeron el “Agent Kit” de Coinbase para agentes de IA y el kit de herramientas colaborativo de la Open Agents Alliance, y Story.xyz promovió su SDK Story para el licenciamiento de propiedad intelectual on-chain durante su propio evento de hackatón.

Las recompensas y el apoyo a los hackers aumentaron aún más la experiencia del desarrollador. Con más de 180 recompensas ofrecidas por 62 patrocinadores, los hackers tenían efectivamente un menú de desafíos específicos para elegir, cada uno con documentación, horas de consulta y, a veces, entornos de prueba personalizados (sandboxes). Por ejemplo, la recompensa de Optimism desafiaba a los desarrolladores a usar los últimos opcodes de Bedrock (con sus ingenieros disponibles para ayudar), y el desafío de Uniswap proporcionaba acceso a su nueva API para la integración de rampas de salida. Herramientas de coordinación y aprendizaje, como la aplicación móvil oficial de ETHDenver y los canales de Discord, mantuvieron a los desarrolladores informados sobre cambios de horario, misiones secundarias e incluso oportunidades de trabajo a través de la bolsa de trabajo de ETHDenver.

Un recurso notable fue el énfasis en los experimentos de financiación cuadrática y la votación on-chain. ETHDenver integró un sistema de votación cuadrática para la evaluación del hackatón, exponiendo a muchos desarrolladores al concepto. Además, la presencia de Gitcoin y otros grupos de bienes públicos significó que los desarrolladores podían aprender sobre la financiación de subvenciones para sus proyectos después del evento. En resumen, ETHDenver 2025 equipó a los desarrolladores con herramientas de vanguardia (SDKs, APIs), orientación experta y apoyo de seguimiento para continuar sus proyectos. Para los profesionales de la industria, es un recordatorio de que nutrir a la comunidad de desarrolladores, a través de la educación, las herramientas y la financiación, es fundamental. Muchos de los recursos destacados (como nuevos SDKs o entornos de desarrollo mejorados) ahora están disponibles públicamente, ofreciendo a los equipos de todo el mundo la oportunidad de construir sobre los hombros de lo que se compartió en ETHDenver.

Eventos paralelos y reuniones comunitarias que enriquecen la experiencia de ETHDenver

Lo que realmente distingue a ETHDenver es su atmósfera de festival: decenas de eventos paralelos, tanto oficiales como no oficiales, crearon un rico tapiz de experiencias en torno a la conferencia principal. En 2025, más allá del National Western Complex donde se desarrollaba el contenido oficial, toda la ciudad bullía de encuentros, fiestas, hackatones y reuniones comunitarias. Estos eventos paralelos, a menudo organizados por patrocinadores o grupos locales de Web3, contribuyeron significativamente a la experiencia más amplia de ETHDenver.

En el frente oficial, el propio programa de ETHDenver incluía mini-eventos temáticos: el recinto tenía zonas como una Galería de Arte NFT, una Sala de Juegos Blockchain, un DJ Chill Dome e incluso una Zona Zen para relajarse. Los organizadores también organizaron eventos nocturnos como fiestas de apertura y clausura; por ejemplo, la fiesta de apertura no oficial “Crack’d House” el 26 de febrero por Story Protocol, que mezcló una actuación artística con anuncios de premios del hackatón. Pero fueron los eventos paralelos liderados por la comunidad los que realmente proliferaron: según una guía de eventos, se rastrearon más de 100 acontecimientos paralelos en el calendario Luma de ETHDenver.

Algunos ejemplos ilustran la diversidad de estas reuniones:

  • Cumbres Técnicas y Hacker Houses: ElizaOS y EigenLayer organizaron una residencia de 9 días, la Vault AI Agent Hacker House, para entusiastas de IA+Web3. El equipo de StarkNet organizó una hacker house de varios días que culminó en una noche de demostraciones para proyectos en su ZK-rollup. Estos proporcionaron entornos enfocados para que los desarrolladores colaboraran en pilas tecnológicas específicas fuera del hackatón principal.
  • Eventos de Networking y Fiestas: Cada noche ofrecía una variedad de opciones. Builder Nights Denver el 27 de febrero, patrocinado por MetaMask, Linea, EigenLayer, Wormhole y otros, reunió a innovadores para charlas informales con comida y bebida. 3VO’s Mischief Minded Club Takeover, respaldado por Belong, fue una fiesta de networking de alto nivel para líderes en la tokenización comunitaria. Para los que buscaban pura diversión, el BEMO Rave (con Berachain y otros) y rAIve the Night (una rave con temática de IA) mantuvieron a la multitud cripto bailando hasta altas horas de la noche, mezclando música, arte y cultura cripto.
  • Reuniones de Intereses Especiales: Las comunidades de nicho también encontraron su espacio. Meme Combat fue un evento exclusivamente para entusiastas de los memes para celebrar su papel en el mundo cripto. House of Ink se dirigió a artistas y coleccionistas de NFT, convirtiendo un espacio de arte inmersivo (Meow Wolf Denver) en una vitrina para el arte digital. La Cumbre SheFi el 26 de febrero reunió a mujeres en Web3 para charlas y networking, con el apoyo de grupos como World of Women y Celo, destacando un compromiso con la diversidad y la inclusión.
  • Encuentros de Inversores y Creadores de Contenido: Ya mencionamos los eventos de VC; además, un Encuentro de KOL (Líderes de Opinión Clave) el 28 de febrero permitió a influencers y creadores de contenido cripto discutir estrategias de participación, mostrando la intersección de las redes sociales y las comunidades cripto.

Crucialmente, estos eventos paralelos no fueron solo entretenimiento; a menudo sirvieron como incubadoras de ideas y relaciones por derecho propio. Por ejemplo, la Cumbre de Capital Tokenizado 2025 profundizó en el futuro de los mercados de capitales on-chain, probablemente generando colaboraciones entre emprendedores fintech y desarrolladores de blockchain presentes. La Hacker House de Gaming On-Chain proporcionó un espacio para que los desarrolladores de juegos compartieran mejores prácticas, lo que podría llevar a una polinización cruzada entre proyectos de gaming en blockchain.

Para los profesionales que asisten a grandes conferencias, el modelo de ETHDenver subraya que el valor se encuentra tanto fuera como dentro del escenario principal. La amplitud de la programación no oficial permitió a los asistentes personalizar su experiencia: ya sea que el objetivo fuera conocer inversores, aprender una nueva habilidad, encontrar un cofundador o simplemente relajarse y crear camaradería, había un evento para ello. Muchos veteranos aconsejan a los recién llegados: “No solo asistas a las charlas, ve a los encuentros y saluda”. En un espacio tan impulsado por la comunidad como Web3, estas conexiones humanas a menudo se traducen en colaboraciones de DAO, acuerdos de inversión o, como mínimo, amistades duraderas que abarcan continentes. La vibrante escena paralela de ETHDenver 2025 amplificó la conferencia principal, convirtiendo una semana en Denver en un festival multidimensional de innovación.

Conclusiones clave y perspectivas accionables

ETHDenver 2025 demostró una industria Web3 en pleno florecimiento de innovación y colaboración. Para los profesionales del sector, surgen varias conclusiones claras y acciones a seguir de este análisis profundo:

  • Diversificación de Tendencias: El evento dejó en evidencia que Web3 ya no es monolítico. Dominios emergentes como la integración de IA, DePIN y la tokenización de RWA son tan prominentes como DeFi y los NFTs. Perspectiva accionable: Mantente informado y adaptable. Los líderes deberían asignar recursos de I+D o inversión a estas verticales en ascenso (p. ej., explorar cómo la IA podría mejorar su dApp, o cómo los activos del mundo real podrían integrarse en plataformas DeFi) para aprovechar la próxima ola de crecimiento.
  • El Futuro es Cross-Chain: Con la participación activa de importantes protocolos no pertenecientes a Ethereum, los muros entre ecosistemas se están derrumbando. La interoperabilidad y las experiencias de usuario multicadena atrajeron una enorme atención, desde MetaMask añadiendo soporte para Bitcoin/Solana hasta cadenas basadas en Polkadot y Cosmos cortejando a los desarrolladores de Ethereum. Perspectiva accionable: Diseñar para un mundo multicadena. Los proyectos deberían considerar integraciones o puentes que aprovechen la liquidez y los usuarios de otras cadenas, y los profesionales podrían buscar alianzas entre comunidades en lugar de permanecer en silos.
  • La Comunidad y los Bienes Públicos Importan: El lema del “Año de los Regenerados” no fue solo retórica; impregnó el contenido a través de discusiones sobre la financiación de bienes públicos, la votación cuadrática para los hacks y eventos como la Cumbre SheFi. El desarrollo ético y sostenible y la propiedad comunitaria son valores clave en el ethos de Ethereum. Perspectiva accionable: Incorporar principios regenerativos. Ya sea apoyando iniciativas de código abierto, utilizando mecanismos de lanzamiento justos o alineando los modelos de negocio con el crecimiento de la comunidad, las empresas de Web3 pueden ganar buena voluntad y longevidad al no ser puramente extractivas.
  • Sentimiento de los Inversores: Cautelosos pero Audaces: A pesar de los rumores de mercado bajista, ETHDenver demostró que los VCs están buscando activamente y dispuestos a apostar fuerte por los próximos capítulos de Web3. Sin embargo, también están reconsiderando cómo invertir (p. ej., de manera más estratégica, quizás con más supervisión sobre el ajuste producto-mercado y una apertura a la financiación comunitaria). Perspectiva accionable: Si eres una startup, enfócate en los fundamentos y la narrativa. Los proyectos que destacaron tenían casos de uso claros y, a menudo, prototipos funcionales (¡algunos construidos en un fin de semana!). Si eres un inversor, la conferencia afirmó que la infraestructura (L2s, seguridad, herramientas de desarrollo) sigue siendo de alta prioridad, pero diferenciarse a través de tesis en IA, gaming o redes sociales puede posicionar a un fondo a la vanguardia.
  • La Experiencia del Desarrollador está Mejorando: ETHDenver destacó muchos nuevos kits de herramientas, SDKs y frameworks que reducen la barrera para el desarrollo de Web3, desde herramientas de abstracción de cuentas hasta bibliotecas de IA on-chain. Perspectiva accionable: Aprovechar estos recursos. Los equipos deberían experimentar con las últimas herramientas de desarrollo presentadas (p. ej., probar ese Smart SSO de zkSync para inicios de sesión más fáciles, o usar los recursos de la Open Agents Alliance para un proyecto de IA) para acelerar su desarrollo y mantenerse por delante de la competencia. Además, las empresas deberían continuar participando en hackatones y foros de desarrolladores abiertos como una forma de encontrar talento e ideas; el éxito de ETHDenver en convertir a hackers en fundadores es prueba de ese modelo.
  • El Poder de los Eventos Paralelos: Por último, la explosión de eventos paralelos enseñó una lección importante sobre el networking: las oportunidades a menudo aparecen en entornos informales. Un encuentro casual en un happy hour o un interés compartido en un pequeño encuentro puede crear conexiones que definan una carrera. Perspectiva accionable: Para quienes asisten a conferencias de la industria, planificar más allá de la agenda oficial. Identifica eventos paralelos alineados con tus objetivos (ya sea conocer inversores, aprender una habilidad de nicho o reclutar talento) y sé proactivo en la participación. Como se vio en Denver, aquellos que se sumergieron por completo en el ecosistema de la semana se fueron no solo con conocimiento, sino con nuevos socios, contrataciones y amigos.

En conclusión, ETHDenver 2025 fue un microcosmos del impulso de la industria Web3: una mezcla de discurso tecnológico de vanguardia, energía comunitaria apasionada, movimientos de inversión estratégicos y una cultura que combina la innovación seria con la diversión. Los profesionales deberían ver las tendencias y perspectivas del evento como una hoja de ruta hacia dónde se dirige Web3. El siguiente paso accionable es tomar estos aprendizajes, ya sea un nuevo enfoque en la IA, una conexión hecha con un equipo de L2 o la inspiración de un proyecto de hackatón, y traducirlos en estrategia. En el espíritu del lema favorito de ETHDenver, es hora de #BUIDL sobre estas ideas y ayudar a dar forma al futuro descentralizado que tantos en Denver se reunieron para imaginar.

Altera.al está contratando: Únete a los pioneros del desarrollo de humanos digitales (Compensación de $600K-1M)

· 3 min de lectura

Nos complace compartir una oportunidad transformadora en Altera.al, una startup de IA revolucionaria que recientemente ha causado sensación con su trabajo pionero en el desarrollo de humanos digitales. Destacada en MIT Technology Review, Altera.al ha demostrado un progreso notable al crear agentes de IA que pueden desarrollar comportamientos similares a los humanos, formar comunidades e interactuar de manera significativa en espacios digitales.

Altera.al: Únete a la frontera del desarrollo de humanos digitales con una compensación de $600K-1M

Sobre Altera.al

Fundada por Robert Yang, quien dejó su puesto como profesor asistente de neurociencia computacional en MIT para perseguir esta visión, Altera.al ya ha asegurado más de 11 millones de dólares en financiación de inversores de renombre, incluidos A16Z y la firma de capital de riesgo emergente de Eric Schmidt. Su reciente demostración del Proyecto Sid mostró agentes de IA que desarrollan espontáneamente roles especializados, forman conexiones sociales e incluso crean sistemas culturales dentro de Minecraft, un paso significativo hacia su objetivo de crear agentes de IA verdaderamente autónomos que puedan colaborar a gran escala.

Por qué ahora es un momento emocionante para unirse

Altera.al ha logrado un importante avance técnico en su misión de desarrollar máquinas con cualidades humanas fundamentales. Su trabajo va más allá del desarrollo tradicional de IA: están creando seres digitales que pueden:

  • Formar comunidades y jerarquías sociales
  • Desarrollar roles y responsabilidades especializadas
  • Crear y difundir patrones culturales
  • Interactuar de manera significativa con humanos en espacios digitales

A quién buscan

Tras su reciente avance, Altera.al está ampliando su equipo y ofreciendo paquetes de compensación excepcionales que van de $600,000 a $1,000,000 para:

  • Expertos en investigación de agentes de IA
  • Contribuyentes individuales fuertes en:
    • Sistemas distribuidos
    • Seguridad
    • Sistemas operativos

Cómo aplicar

¿Listo para ser parte de este viaje revolucionario? Aplica directamente a través de su página de carreras: https://jobs.ashbyhq.com/altera.al

Únete al futuro del desarrollo de humanos digitales

Esta es una oportunidad única para trabajar en la intersección de la inteligencia artificial y la modelación del comportamiento humano, con un equipo que ya está demostrando resultados notables. Si te apasiona empujar los límites de lo posible en IA y la interacción humano‑máquina, Altera.al podría ser tu próxima aventura.


Para más actualizaciones sobre oportunidades revolucionarias en tecnología y blockchain, síguenos en Twitter o únete a nuestra comunidad en Discord.

Este artículo forma parte de nuestro compromiso continuo de apoyar la innovación y conectar talento con oportunidades transformadoras en la industria tecnológica.

Perspectiva Crypto 2025 de A16Z: Doce Ideas que Podrían Redefinir la Próxima Internet

· 8 min de lectura

Cada año, a16z publica predicciones ambiciosas sobre las tecnologías que definirán nuestro futuro. Esta vez, su equipo cripto ha pintado un cuadro vívido de un 2025 donde blockchains, IA y experimentos de gobernanza avanzada colisionan.

He resumido y comentado sus ideas clave a continuación, enfocándome en lo que veo como los grandes palancas de cambio — y los posibles obstáculos. Si eres un creador tecnológico, inversor o simplemente tienes curiosidad por la próxima ola de internet, este artículo es para ti.

1. IA se Encuentra con Carteras Cripto

Idea clave: Los modelos de IA están pasando de ser “NPCs” en segundo plano a “personajes principales”, actuando de forma independiente en economías en línea (y potencialmente físicas). Eso significa que necesitarán carteras cripto propias.

  • Qué significa: En lugar de que una IA solo genere respuestas, podría poseer, gastar o invertir activos digitales — transaccionando en nombre de su propietario humano o por sí misma.
  • Potencial beneficio: “IAs agentes” de mayor eficiencia podrían ayudar a empresas con la coordinación de la cadena de suministro, gestión de datos o trading automatizado.
  • Precaución: ¿Cómo aseguramos que una IA sea verdaderamente autónoma y no esté secretamente manipulada por humanos? Los entornos de ejecución confiables (TEE) pueden ofrecer garantías técnicas, pero generar confianza en un “robot con cartera” no sucederá de la noche a la mañana.

2. Auge del DAC (Chatbot Autónomo Descentralizado)

Idea clave: Un chatbot que funcione de forma autónoma en un TEE puede gestionar sus propias claves, publicar contenido en redes sociales, ganar seguidores e incluso generar ingresos — todo sin control humano directo.

  • Qué significa: Piensa en un influencer de IA que no pueda ser silenciado por ninguna persona porque literalmente se controla a sí mismo.
  • Potencial beneficio: Un vistazo a un mundo donde los creadores de contenido no son individuos sino algoritmos autogobernados con valoraciones de millones (o miles de millones) de dólares.
  • Precaución: Si una IA infringe la ley, ¿quién es responsable? Los marcos regulatorios serán complicados cuando la “entidad” sea un conjunto de código alojado en servidores distribuidos.

3. La Prueba de Personería se Vuelve Esencial

Idea clave: Con la IA reduciendo el costo de generar falsificaciones hiperrealistas, necesitamos mejores formas de verificar que estamos interactuando con humanos reales en línea. Entra la identificación única que preserva la privacidad.

  • Qué significa: Cada usuario podría terminar con un “sello humano” certificado — idealmente sin sacrificar datos personales.
  • Potencial beneficio: Reducción drástica de spam, estafas y ejércitos de bots. También sienta las bases para redes sociales y plataformas comunitarias más confiables.
  • Precaución: La adopción es la principal barrera. Incluso las mejores soluciones de prueba de personería necesitan aceptación amplia antes de que los actores maliciosos las superen.

4. De los Mercados de Predicción a la Agregación de Información Más Amplia

Idea clave: Los mercados de predicción impulsados por elecciones en 2024 captaron la atención, pero a16z ve una tendencia mayor: usar blockchain para diseñar nuevas formas de revelar y agregar verdades — ya sea en gobernanza, finanzas o decisiones comunitarias.

  • Qué significa: Mecanismos de incentivos distribuidos pueden recompensar a las personas por aportar datos honestos. Podríamos ver “mercados de verdad” especializados para todo, desde redes de sensores locales hasta cadenas de suministro globales.
  • Potencial beneficio: Una capa de datos más transparente y menos manipulable para la sociedad.
  • Precaución: La liquidez suficiente y la participación de usuarios siguen siendo desafíos. Para preguntas de nicho, los “pools de predicción” pueden ser demasiado pequeños para generar señales significativas.

5. Stablecoins en el Mundo Empresarial

Idea clave: Las stablecoins ya son la forma más barata de mover dólares digitales, pero las grandes empresas aún no las han adoptado — todavía.

  • Qué significa: PYMES y comercios con alto volumen de transacciones podrían darse cuenta de que pueden ahorrar costosas comisiones de tarjetas de crédito al adoptar stablecoins. Empresas que procesan miles de millones al año podrían hacer lo mismo, potencialmente añadiendo un 2 % a sus resultados netos.
  • Potencial beneficio: Pagos globales más rápidos y baratos, además de una nueva ola de productos financieros basados en stablecoins.
  • Precaución: Las compañías necesitarán nuevas formas de gestionar la protección contra fraudes, verificación de identidad y reembolsos — funciones que antes manejaban los proveedores de tarjetas de crédito.

6. Bonos Gubernamentales en la Blockchain

Idea clave: Los gobiernos que exploren bonos on‑chain podrían crear activos digitales que generen intereses sin los problemas de privacidad de una moneda digital de banco central.

  • Qué significa: Los bonos on‑chain podrían servir como colateral de alta calidad en DeFi, permitiendo que la deuda soberana se integre sin problemas con protocolos de préstamo descentralizados.
  • Potencial beneficio: Mayor transparencia, costos de emisión potencialmente menores y un mercado de bonos más democratizado.
  • Precaución: Reguladores escépticos y posible inercia en grandes instituciones. Los sistemas de compensación legados no desaparecerán fácilmente.

Idea clave: Wyoming introdujo una nueva categoría llamada “asociación sin fines de lucro descentralizada no incorporada” (DUNA), destinada a dar a los DAOs reconocimiento legal en EE. UU.

  • Qué significa: Los DAOs ahora pueden poseer propiedades, firmar contratos y limitar la responsabilidad de los poseedores de tokens. Esto abre la puerta a un uso más mainstream y a actividad comercial real.
  • Potencial beneficio: Si otros estados siguen el ejemplo de Wyoming (como lo hicieron con las LLC), los DAOs se convertirán en entidades empresariales normales.
  • Precaución: La percepción pública sigue siendo difusa sobre lo que hacen los DAOs. Necesitarán un historial de proyectos exitosos que se traduzcan en beneficios reales.

8. Democracia Líquida en el Mundo Físico

Idea clave: Los experimentos de gobernanza basados en blockchain podrían extenderse de comunidades DAO en línea a elecciones a nivel local. Los votantes podrían delegar su voto o votar directamente — “democracia líquida”.

  • Qué significa: Representación más flexible. Puedes elegir votar sobre temas específicos o delegar esa responsabilidad a alguien en quien confíes.
  • Potencial beneficio: Ciudadanos potencialmente más comprometidos y políticas más dinámicas.
  • Precaución: Problemas de seguridad, alfabetización técnica y escepticismo general sobre mezclar blockchain con elecciones oficiales.

9. Construir sobre Infraestructura Existente (En Lugar de Reinventarla)

Idea clave: Las startups a menudo gastan tiempo reinventando la capa base (protocolos de consenso, lenguajes de programación) en lugar de enfocarse en el ajuste producto‑mercado. En 2025, optarán más por componentes prefabricados.

  • Qué significa: Velocidad al mercado más rápida, sistemas más fiables y mayor composabilidad.
  • Potencial beneficio: Menos tiempo perdido construyendo una nueva blockchain desde cero; más tiempo dedicado al problema del usuario que estás resolviendo.
  • Precaución: Es tentador sobre‑especializarse para ganar rendimiento. Pero lenguajes o capas de consenso especializados pueden crear mayor carga para los desarrolladores.

10. Experiencia de Usuario Primero, Infraestructura Después

Idea clave: Crypto necesita “ocultar los cables”. No hacemos que los consumidores aprendan SMTP para enviar email — entonces, ¿por qué obligarlos a aprender “EIPs” o “rollups”?

  • Qué significa: Los equipos de producto elegirán la base técnica que sirva a una gran experiencia de usuario, no al revés.
  • Potencial beneficio: Un gran salto en la incorporación de usuarios, reduciendo fricción y jerga.
  • Precaución: “Constrúyelo y vendrá” solo funciona si realmente clavas la experiencia. El marketing de “UX cripto fácil” no sirve de nada si la gente sigue teniendo que manejar claves privadas o memorizar acrónimos crípticos.

11. Surgen las Tiendas de Apps Propias de Crypto

Idea clave: Desde el marketplace World App de Worldcoin hasta la dApp Store de Solana, las plataformas cripto‑amigables ofrecen distribución y descubrimiento sin la puerta de entrada de Apple o Google.

  • Qué significa: Si construyes una aplicación descentralizada, puedes llegar a usuarios sin temor a ser deslistado repentinamente.
  • Potencial beneficio: Decenas (o cientos) de miles de nuevos usuarios descubriendo tu dApp en días, en lugar de perderse en el océano de tiendas de apps centralizadas.
  • Precaución: Estas tiendas necesitan una base de usuarios y un impulso suficientes para competir con Apple y Google. Ese es un gran obstáculo. Los dispositivos especializados (como teléfonos cripto) podrían ayudar.

12. Tokenización de Activos “No Convencionales”

Idea clave: A medida que la infraestructura blockchain madura y las tarifas bajan, tokenizar de todo, desde datos biométricos hasta curiosidades del mundo real, se vuelve más factible.

  • Qué significa: Una “cola larga” de activos únicos puede fraccionarse y comercializarse globalmente. La gente podría incluso monetizar sus datos personales de forma controlada y con consentimiento.
  • Potencial beneficio: Mercados masivos para activos que antes estaban “bloqueados”, además de nuevos pools de datos interesantes para que la IA los consuma.
  • Precaución: Riesgos de privacidad y minas éticas. Solo porque puedes tokenizar algo no significa que debas hacerlo.

La perspectiva 2025 de A16Z muestra un sector cripto que busca una adopción más amplia, gobernanza responsable e integración profunda con IA. Mientras ciclos anteriores se centraron en la especulación o el hype, esta visión gira en torno a la utilidad: stablecoins que ahorran a los comerciantes un 2 % en cada latte, chatbots de IA que manejan sus propios negocios, gobiernos locales que experimentan con democracia líquida.

Sin embargo, el riesgo de ejecución es real. Los reguladores de todo el mundo siguen cautelosos, y la experiencia de usuario sigue siendo demasiado torpe para el mainstream. 2025 podría ser el año en que cripto e IA finalmente “crezcan”, o podría ser solo un paso intermedio — todo depende de si los equipos pueden lanzar productos reales que la gente ame, no solo protocolos para los conocedores.

¿Puede el Sistema Operativo de IA Descentralizada de 0G Impulsar Realmente la IA On-Chain a Escala?

· 15 min de lectura

El 13 de noviembre de 2024, 0G Labs anunció una ronda de financiación de 40 millones de dólares liderada por Hack VC, Delphi Digital, OKX Ventures, Samsung Next y Animoca Brands, lo que puso al equipo detrás de este sistema operativo de IA descentralizada en el centro de atención. Su enfoque modular combina almacenamiento descentralizado, verificación de disponibilidad de datos y liquidación descentralizada para habilitar aplicaciones de IA on-chain. Pero, ¿pueden realmente lograr un rendimiento de nivel GB/s para impulsar la próxima era de adopción de la IA en Web3? Este informe en profundidad evalúa la arquitectura de 0G, sus mecanismos de incentivos, la tracción de su ecosistema y sus posibles escollos, con el objetivo de ayudarte a determinar si 0G puede cumplir su promesa.

Contexto

El sector de la IA ha experimentado un ascenso meteórico, catalizado por grandes modelos de lenguaje como ChatGPT y ERNIE Bot. Sin embargo, la IA es más que solo chatbots y texto generativo; también incluye desde las victorias de AlphaGo en Go hasta herramientas de generación de imágenes como MidJourney. El santo grial que muchos desarrolladores persiguen es una IA de propósito general, o AGI (Inteligencia Artificial General), descrita coloquialmente como un "Agente" de IA capaz de aprender, percibir, tomar decisiones y ejecutar tareas complejas de manera similar a la inteligencia humana.

Sin embargo, tanto la IA como las aplicaciones de Agentes de IA son extremadamente intensivas en datos. Dependen de conjuntos de datos masivos para el entrenamiento y la inferencia. Tradicionalmente, estos datos se almacenan y procesan en infraestructura centralizada. Con el advenimiento de la blockchain, ha surgido un nuevo enfoque conocido como DeAI (IA Descentralizada). DeAI intenta aprovechar las redes descentralizadas para el almacenamiento, el intercambio y la verificación de datos, con el fin de superar los inconvenientes de las soluciones de IA tradicionales y centralizadas.

0G Labs destaca en este panorama de infraestructura DeAI, con el objetivo de construir un sistema operativo de IA descentralizada conocido simplemente como 0G.

¿Qué es 0G Labs?

En la computación tradicional, un Sistema Operativo (SO) gestiona los recursos de hardware y software; piensa en Microsoft Windows, Linux, macOS, iOS o Android. Un SO abstrae la complejidad del hardware subyacente, facilitando la interacción con el ordenador tanto para los usuarios finales como para los desarrolladores.

Por analogía, el SO de 0G aspira a cumplir un papel similar en Web3:

  • Gestionar el almacenamiento descentralizado, la computación y la disponibilidad de datos.
  • Simplificar el despliegue de aplicaciones de IA on-chain.

¿Por qué la descentralización? Los sistemas de IA convencionales almacenan y procesan datos en silos centralizados, lo que plantea preocupaciones sobre la transparencia de los datos, la privacidad del usuario y la compensación justa para los proveedores de datos. El enfoque de 0G utiliza almacenamiento descentralizado, pruebas criptográficas y modelos de incentivos abiertos para mitigar estos riesgos.

El nombre "0G" significa "Gravedad Cero". El equipo visualiza un entorno donde el intercambio de datos y la computación se sienten "ingrávidos": todo, desde el entrenamiento de IA hasta la inferencia y la disponibilidad de datos, ocurre sin problemas on-chain.

La Fundación 0G, establecida formalmente en octubre de 2024, impulsa esta iniciativa. Su misión declarada es hacer de la IA un bien público, accesible, verificable y abierto para todos.

Componentes Clave del Sistema Operativo 0G

Fundamentalmente, 0G es una arquitectura modular diseñada específicamente para soportar aplicaciones de IA on-chain. Sus tres pilares principales son:

  1. 0G Storage – Una red de almacenamiento descentralizada.
  2. 0G DA (Disponibilidad de Datos) – Una capa especializada de disponibilidad de datos que garantiza la integridad de los mismos.
  3. 0G Compute Network – Gestión de recursos de computación descentralizada y liquidación para la inferencia de IA (y eventualmente el entrenamiento).

Estos pilares funcionan en conjunto bajo el paraguas de una red Layer1 llamada 0G Chain, que es responsable del consenso y la liquidación.

Según el Whitepaper de 0G ("0G: Hacia la Disponibilidad de Datos 2.0"), tanto las capas 0G Storage como 0G DA se construyen sobre 0G Chain. Los desarrolladores pueden lanzar múltiples redes de consenso PoS personalizadas, cada una funcionando como parte del marco de 0G DA y 0G Storage. Este enfoque modular significa que, a medida que la carga del sistema crece, 0G puede añadir dinámicamente nuevos conjuntos de validadores o nodos especializados para escalar.

0G Storage

0G Storage es un sistema de almacenamiento descentralizado diseñado para datos a gran escala. Utiliza nodos distribuidos con incentivos incorporados para almacenar datos de usuario. Fundamentalmente, divide los datos en "fragmentos" más pequeños y redundantes utilizando Codificación de Borrado (EC), distribuyendo estos fragmentos entre diferentes nodos de almacenamiento. Si un nodo falla, los datos aún pueden reconstruirse a partir de los fragmentos redundantes.

Tipos de Datos Soportados

0G Storage admite datos tanto estructurados como no estructurados.

  1. Los Datos Estructurados se almacenan en una capa de Clave-Valor (KV), adecuada para información dinámica y frecuentemente actualizada (piensa en bases de datos, documentos colaborativos, etc.).
  2. Los Datos No Estructurados se almacenan en una capa de Registro (Log) que añade entradas de datos cronológicamente. Esta capa es similar a un sistema de archivos optimizado para cargas de trabajo a gran escala y de solo añadir.

Al apilar una capa KV sobre la capa de Registro, 0G Storage puede satisfacer diversas necesidades de aplicaciones de IA, desde el almacenamiento de grandes pesos de modelos (no estructurados) hasta datos dinámicos basados en el usuario o métricas en tiempo real (estructurados).

Consenso PoRA

PoRA (Prueba de Acceso Aleatorio) asegura que los nodos de almacenamiento realmente poseen los fragmentos que afirman almacenar. Así es como funciona:

  • Los mineros de almacenamiento son desafiados periódicamente para producir hashes criptográficos de fragmentos de datos aleatorios específicos que almacenan.
  • Deben responder generando un hash válido (similar a la resolución de un rompecabezas tipo PoW) derivado de su copia local de los datos.

Para igualar las condiciones, el sistema limita las competiciones de minería a segmentos de 8 TB. Un minero grande puede subdividir su hardware en múltiples particiones de 8 TB, mientras que los mineros más pequeños compiten dentro de un único límite de 8 TB.

Diseño de Incentivos

Los datos en 0G Storage se dividen en "Segmentos de Precios" de 8 GB. Cada segmento tiene un fondo de donación y un fondo de recompensa. Los usuarios que desean almacenar datos pagan una tarifa en 0G Token (ZG), que financia parcialmente las recompensas de los nodos.

  • Recompensa Base: Cuando un nodo de almacenamiento envía pruebas PoRA válidas, recibe recompensas de bloque inmediatas para ese segmento.
  • Recompensa Continua: Con el tiempo, el fondo de donación libera una porción (actualmente ~4% anual) en el fondo de recompensa, incentivando a los nodos a almacenar datos de forma permanente. Cuantos menos nodos almacenen un segmento particular, mayor será la parte que cada nodo podrá ganar.

Los usuarios solo pagan una vez por el almacenamiento permanente, pero deben establecer una tarifa de donación por encima de un mínimo del sistema. Cuanto mayor sea la donación, más probable será que los mineros repliquen los datos del usuario.

Mecanismo de Regalías: 0G Storage también incluye un mecanismo de "regalías" o "intercambio de datos". Los primeros proveedores de almacenamiento crean "registros de regalías" para cada fragmento de datos. Si nuevos nodos desean almacenar ese mismo fragmento, el nodo original puede compartirlo. Cuando el nuevo nodo demuestra posteriormente el almacenamiento (a través de PoRA), el proveedor de datos original recibe una regalía continua. Cuanto más ampliamente replicados estén los datos, mayor será la recompensa agregada para los proveedores iniciales.

Comparaciones con Filecoin y Arweave

Similitudes:

  • Los tres incentivan el almacenamiento de datos descentralizado.
  • Tanto 0G Storage como Arweave buscan el almacenamiento permanente.
  • La fragmentación de datos y la redundancia son enfoques estándar.

Diferencias Clave:

  • Integración Nativa: 0G Storage no es una blockchain independiente; está integrada directamente con 0G Chain y soporta principalmente casos de uso centrados en IA.
  • Datos Estructurados: 0G soporta datos estructurados basados en KV junto con datos no estructurados, lo cual es crítico para muchas cargas de trabajo de IA que requieren acceso frecuente de lectura y escritura.
  • Costo: 0G afirma un costo de $10–11/TB para almacenamiento permanente, supuestamente más barato que Arweave.
  • Enfoque en el Rendimiento: Diseñado específicamente para satisfacer las demandas de rendimiento de la IA, mientras que Filecoin o Arweave son redes de almacenamiento descentralizadas de propósito más general.

0G DA (Capa de Disponibilidad de Datos)

La disponibilidad de datos asegura que cada participante de la red pueda verificar y recuperar completamente los datos de las transacciones. Si los datos están incompletos o retenidos, las suposiciones de confianza de la blockchain se rompen.

En el sistema 0G, los datos se fragmentan y se almacenan off-chain. El sistema registra las raíces Merkle para estos fragmentos de datos, y los nodos DA deben muestrear estos fragmentos para asegurar que coinciden con la raíz Merkle y los compromisos de codificación de borrado. Solo entonces los datos se consideran "disponibles" y se añaden al estado de consenso de la cadena.

Selección e Incentivos de Nodos DA

  • Los nodos DA deben hacer staking de ZG para participar.
  • Se agrupan en quórums aleatoriamente a través de Funciones Aleatorias Verificables (VRF).
  • Cada nodo solo valida un subconjunto de datos. Si 2/3 de un quórum confirman que los datos están disponibles y son correctos, firman una prueba que se agrega y se envía a la red de consenso de 0G.
  • La distribución de recompensas también se realiza mediante muestreo periódico. Solo los nodos que almacenan fragmentos muestreados aleatoriamente son elegibles para las recompensas de esa ronda.

Comparación con Celestia y EigenLayer

0G DA se basa en ideas de Celestia (muestreo de disponibilidad de datos) y EigenLayer (restaking), pero tiene como objetivo proporcionar un mayor rendimiento. El rendimiento actual de Celestia ronda los 10 MB/s con tiempos de bloque de ~12 segundos. Mientras tanto, EigenDA sirve principalmente a soluciones Layer2 y puede ser complejo de implementar. 0G prevé un rendimiento de GB/s, lo que se adapta mejor a las cargas de trabajo de IA a gran escala que pueden superar los 50–100 GB/s de ingesta de datos.

Red de Computación 0G

La Red de Computación 0G sirve como la capa de computación descentralizada. Está evolucionando en fases:

  • Fase 1: Enfoque en la liquidación para la inferencia de IA.
  • La red empareja a "compradores de modelos de IA" (usuarios) con proveedores de computación (vendedores) en un marketplace descentralizado. Los proveedores registran sus servicios y precios en un contrato inteligente. Los usuarios pre-financian el contrato, consumen el servicio y el contrato media el pago.
  • Con el tiempo, el equipo espera expandirse al entrenamiento completo de IA on-chain, aunque eso es más complejo.

Procesamiento por Lotes: Los proveedores pueden agrupar las solicitudes de los usuarios para reducir la sobrecarga on-chain, mejorando la eficiencia y reduciendo los costos.

0G Chain

0G Chain es una red Layer1 que sirve como base para la arquitectura modular de 0G. Sustenta:

  • 0G Storage (a través de contratos inteligentes)
  • 0G DA (pruebas de disponibilidad de datos)
  • 0G Compute (mecanismos de liquidación)

Según la documentación oficial, 0G Chain es compatible con EVM, lo que permite una fácil integración para dApps que requieren almacenamiento de datos avanzado, disponibilidad o computación.

Red de Consenso 0G

El mecanismo de consenso de 0G es algo único. En lugar de una única capa de consenso monolítica, se pueden lanzar múltiples redes de consenso independientes bajo 0G para manejar diferentes cargas de trabajo. Estas redes comparten la misma base de staking:

  • Staking Compartido: Los validadores hacen staking de ZG en Ethereum. Si un validador se comporta mal, su ZG en staking en Ethereum puede ser recortado (slashed).
  • Escalabilidad: Se pueden poner en marcha nuevas redes de consenso para escalar horizontalmente.

Mecanismo de Recompensa: Cuando los validadores finalizan bloques en el entorno 0G, reciben tokens. Sin embargo, los tokens que ganan en 0G Chain son quemados en el entorno local, y la cuenta del validador basada en Ethereum es minteada con una cantidad equivalente, asegurando un único punto de liquidez y seguridad.

Token 0G (ZG)

ZG es un token ERC-20 que representa la columna vertebral de la economía de 0G. Se mintea, quema y circula a través de contratos inteligentes en Ethereum. En términos prácticos:

  • Los usuarios pagan por el almacenamiento, la disponibilidad de datos y los recursos de computación en ZG.
  • Los mineros y validadores ganan ZG por probar el almacenamiento o validar datos.
  • El staking compartido vincula el modelo de seguridad a Ethereum.

Resumen de Módulos Clave

El SO de 0G fusiona cuatro componentes —Almacenamiento, DA, Computación y Cadena— en una pila modular interconectada. El objetivo de diseño del sistema es la escalabilidad, con cada capa extensible horizontalmente. El equipo promociona el potencial de un rendimiento "infinito", especialmente crucial para tareas de IA a gran escala.

Ecosistema 0G

Aunque relativamente nuevo, el ecosistema 0G ya incluye socios de integración clave:

  1. Infraestructura y Herramientas:

    • Soluciones ZK como Union, Brevis, Gevulot
    • Soluciones cross-chain como Axelar
    • Protocolos de restaking como EigenLayer, Babylon, PingPong
    • Proveedores de GPU descentralizadas IoNet, exaBits
    • Soluciones de Oráculo Hemera, Redstone
    • Herramientas de indexación para datos blob de Ethereum
  2. Proyectos que Utilizan 0G para Almacenamiento de Datos y DA:

    • Polygon, Optimism (OP), Arbitrum, Manta para integración L2 / L3
    • Nodekit, AltLayer para infraestructura Web3
    • Blade Games, Shrapnel para juegos on-chain

Lado de la Oferta

Los frameworks ZK y Cross-chain conectan 0G a redes externas. Las soluciones de restaking (por ejemplo, EigenLayer, Babylon) refuerzan la seguridad y posiblemente atraen liquidez. Las redes de GPU aceleran la codificación de borrado. Las soluciones de Oráculo alimentan datos off-chain o referencian el precio de los modelos de IA.

Lado de la Demanda

Los Agentes de IA pueden aprovechar 0G tanto para el almacenamiento de datos como para la inferencia. Las L2s y L3s pueden integrar la DA de 0G para mejorar el rendimiento. Los juegos y otras dApps que requieren soluciones de datos robustas pueden almacenar activos, registros o sistemas de puntuación en 0G. Algunos ya se han asociado con el proyecto, lo que indica una tracción temprana del ecosistema.

Hoja de Ruta y Factores de Riesgo

0G tiene como objetivo hacer de la IA una utilidad pública, accesible y verificable por cualquiera. El equipo aspira a un rendimiento de DA de nivel GB/s, crucial para el entrenamiento de IA en tiempo real que puede demandar entre 50 y 100 GB/s de transferencia de datos.

El cofundador y CEO Michael Heinrich ha declarado que el crecimiento explosivo de la IA hace que la iteración oportuna sea crítica. El ritmo de innovación de la IA es rápido; el propio progreso de desarrollo de 0G debe mantenerse al día.

Posibles Compromisos:

  • La dependencia actual del staking compartido podría ser una solución intermedia. Eventualmente, 0G planea introducir una capa de consenso escalable horizontalmente que pueda aumentarse incrementalmente (similar a la puesta en marcha de nuevos nodos de AWS).
  • Competencia en el Mercado: Existen muchas soluciones especializadas para el almacenamiento descentralizado, la disponibilidad de datos y la computación. El enfoque todo en uno de 0G debe seguir siendo atractivo.
  • Adopción y Crecimiento del Ecosistema: Sin una sólida tracción de desarrolladores, el prometido "rendimiento ilimitado" sigue siendo teórico.
  • Sostenibilidad de los Incentivos: La motivación continua para los nodos depende de la demanda real de los usuarios y de una economía de tokens en equilibrio.

Conclusión

0G intenta unificar el almacenamiento descentralizado, la disponibilidad de datos y la computación en un único "sistema operativo" que soporte la IA on-chain. Al apuntar a un rendimiento de GB/s, el equipo busca romper la barrera de rendimiento que actualmente disuade a la IA a gran escala de migrar on-chain. Si tiene éxito, 0G podría acelerar significativamente la ola de IA en Web3 al proporcionar una infraestructura escalable, integrada y amigable para los desarrolladores.

Aun así, quedan muchas preguntas abiertas. La viabilidad del "rendimiento infinito" depende de si el consenso modular y las estructuras de incentivos de 0G pueden escalar sin problemas. Factores externos —demanda del mercado, tiempo de actividad de los nodos, adopción por parte de los desarrolladores— también determinarán la permanencia de 0G. No obstante, el enfoque de 0G para abordar los cuellos de botella de datos de la IA es novedoso y ambicioso, lo que sugiere un nuevo paradigma prometedor para la IA on-chain.

Redes de Infraestructura Física Descentralizada (DePIN): Economía, Incentivos y la Era de la Computación de IA

· 59 min de lectura
Dora Noda
Software Engineer

Introducción

Las Redes de Infraestructura Física Descentralizada (DePIN) son proyectos basados en blockchain que incentivan a las personas a desplegar hardware del mundo real a cambio de tokens cripto. Al aprovechar recursos inactivos o subutilizados —desde radios inalámbricas hasta discos duros y GPUs— los proyectos DePIN crean redes colaborativas que proporcionan servicios tangibles (conectividad, almacenamiento, computación, etc.). Este modelo transforma la infraestructura normalmente inactiva (como el ancho de banda, el espacio en disco o la potencia de GPU no utilizados) en redes activas y generadoras de ingresos al recompensar a los contribuyentes con tokens. Ejemplos tempranos importantes incluyen Helium (redes inalámbricas colaborativas) y Filecoin (almacenamiento de datos distribuido), y los nuevos participantes se centran en la computación con GPU y el uso compartido de cobertura 5G (por ejemplo, Render Network, Akash, io.net).

La promesa de DePIN radica en distribuir los costos de construcción y operación de redes físicas a través de incentivos de tokens, escalando así las redes más rápido que los modelos centralizados tradicionales. En la práctica, sin embargo, estos proyectos deben diseñar cuidadosamente modelos económicos para asegurar que los incentivos de tokens se traduzcan en un uso real del servicio y un valor sostenible. A continuación, analizamos los modelos económicos de las redes DePIN clave, evaluamos cuán eficazmente las recompensas de tokens han impulsado el uso real de la infraestructura y valoramos cómo estos proyectos se están acoplando a la creciente demanda de computación relacionada con la IA.

Modelos Económicos de los Proyectos DePIN Líderes

Helium (IoT Inalámbrico Descentralizado y 5G)

Helium fue pionero en una red inalámbrica descentralizada al incentivar a individuos a desplegar hotspots de radio. Inicialmente centrado en IoT (LoRaWAN) y luego expandido a la cobertura de celdas pequeñas 5G, el modelo de Helium se centra en su token nativo HNT. Los operadores de hotspots ganan HNT al participar en la Prueba de Cobertura (PoC) —esencialmente, demostrando que están proporcionando cobertura inalámbrica en una ubicación determinada—. En el sistema de dos tokens de Helium, HNT tiene utilidad a través de los Créditos de Datos (DC): los usuarios deben quemar HNT para acuñar DC no transferibles, que se utilizan para pagar el uso real de la red (conectividad de dispositivos) a una tasa fija de $0.0001 por 24 bytes. Este mecanismo de quema crea un equilibrio de quema y acuñación donde un mayor uso de la red (gasto de DC) conduce a que se queme más HNT, reduciendo la oferta con el tiempo.

Originalmente, Helium operaba en su propia blockchain con una emisión inflacionaria de HNT que se reducía a la mitad cada dos años (lo que resultaba en una oferta que disminuía gradualmente y un máximo eventual de ~223 millones de HNT en circulación). En 2023, Helium migró a Solana e introdujo un marco de “red de redes” con sub-DAOs. Ahora, la red IoT y la red móvil 5G de Helium tienen cada una sus propios tokens (IOT y MOBILE respectivamente) que se recompensan a los operadores de hotspots, mientras que HNT sigue siendo el token central para la gobernanza y el valor. HNT puede ser canjeado por tokens de subDAO (y viceversa) a través de fondos de tesorería, y HNT también se utiliza para el staking en el modelo de gobernanza veHNT de Helium. Esta estructura tiene como objetivo alinear los incentivos en cada sub-red: por ejemplo, los operadores de hotspots 5G ganan tokens MOBILE, que pueden convertirse en HNT, vinculando efectivamente las recompensas al éxito de ese servicio específico.

Creación de valor económico: El valor de Helium se crea al proporcionar acceso inalámbrico de bajo costo. Al distribuir recompensas de tokens, Helium descargó el capex del despliegue de la red en individuos que compraron y operaron hotspots. En teoría, a medida que las empresas y los dispositivos IoT utilizan la red (gastando DC que requieren la quema de HNT), esa demanda debería respaldar el valor de HNT y financiar las recompensas continuas. Helium sostiene su economía a través de un ciclo de quema y gasto: los usuarios de la red compran HNT (o usan recompensas de HNT) y lo queman por DC para usar la red, y el protocolo acuña HNT (según un cronograma fijo) para pagar a los proveedores de hotspots. En el diseño de Helium, una parte de las emisiones de HNT también se asignó a los fundadores y a una reserva comunitaria, pero la mayoría siempre ha sido para los operadores de hotspots como incentivo para construir cobertura. Como se discutirá más adelante, el desafío de Helium ha sido conseguir suficiente demanda de pago para equilibrar los generosos incentivos del lado de la oferta.

Filecoin (Red de Almacenamiento Descentralizado)

Filecoin es un mercado de almacenamiento descentralizado donde cualquiera puede contribuir con espacio en disco y ganar tokens por almacenar datos. Su modelo económico se basa en el token FIL. La blockchain de Filecoin recompensa a los proveedores de almacenamiento (mineros) con recompensas de bloque de FIL por aprovisionar almacenamiento y almacenar correctamente los datos de los clientes, utilizando pruebas criptográficas (Prueba de Replicación y Prueba de Espacio-Tiempo) para verificar que los datos se almacenan de manera fiable. Los clientes, a su vez, pagan FIL a los mineros para que sus datos sean almacenados o recuperados, negociando precios en un mercado abierto. Esto crea un ciclo de incentivos: los mineros invierten en hardware y hacen staking de colateral en FIL (para garantizar la calidad del servicio), ganando recompensas de FIL por agregar capacidad de almacenamiento y cumplir con los acuerdos de almacenamiento, mientras que los clientes gastan FIL en servicios de almacenamiento.

La distribución de tokens de Filecoin está fuertemente ponderada hacia la incentivación de la oferta de almacenamiento. FIL tiene un suministro máximo de 2 mil millones, con un 70% reservado para recompensas de minería. (De hecho, ~1.4 mil millones de FIL están asignados para ser liberados con el tiempo como recompensas de bloque para los mineros de almacenamiento durante muchos años). El 30% restante se asignó a las partes interesadas: 15% a Protocol Labs (el equipo fundador), 10% a los inversores y 5% a la Fundación Filecoin. Las emisiones de recompensas de bloque siguen un cronograma algo concentrado al principio (con una vida media de seis años), lo que significa que la inflación de la oferta fue más alta en los primeros años para impulsar rápidamente una gran red de almacenamiento. Para equilibrar esto, Filecoin requiere que los mineros bloqueen FIL como colateral por cada gigabyte de datos que se comprometen a almacenar; si no logran demostrar que los datos se conservan, pueden ser penalizados (slashed) perdiendo parte del colateral. Este mecanismo alinea los incentivos de los mineros con un servicio fiable.

Creación de valor económico: Filecoin crea valor al ofrecer almacenamiento de datos redundante y resistente a la censura a costos potencialmente más bajos que los proveedores de la nube centralizados. El valor del token FIL está ligado a la demanda de almacenamiento y la utilidad de la red: los clientes deben obtener FIL para pagar por el almacenamiento de datos, y los mineros necesitan FIL (tanto para el colateral como a menudo para cubrir costos o como ingresos). Inicialmente, gran parte de la actividad de Filecoin fue impulsada por mineros compitiendo para ganar tokens, incluso almacenando datos de valor cero o duplicados solo para aumentar su poder de almacenamiento y ganar recompensas de bloque. Para fomentar el almacenamiento útil, Filecoin introdujo el programa Filecoin Plus: los clientes con datos útiles verificados (por ejemplo, conjuntos de datos abiertos, archivos) pueden registrar acuerdos como "verificados", lo que otorga a los mineros 10 veces el poder efectivo para esos acuerdos, traduciéndose en recompensas de FIL proporcionalmente mayores. Esto ha incentivado a los mineros a buscar clientes reales y ha aumentado drásticamente los datos útiles almacenados en la red. A finales de 2023, la red de Filecoin había crecido a aproximadamente 1,800 PiB de acuerdos activos, un aumento de 3.8 veces año tras año, con la utilización del almacenamiento aumentando a ~20% de la capacidad total (desde solo ~3% a principios de 2023). En otras palabras, los incentivos de tokens impulsaron una enorme capacidad, y ahora una fracción creciente de esa capacidad está siendo llenada por clientes de pago, una señal de que el modelo comienza a sostenerse con demanda real. Filecoin también se está expandiendo a servicios adyacentes (ver Tendencias de Computación de IA a continuación), lo que podría crear nuevas fuentes de ingresos (por ejemplo, entrega de contenido descentralizado y servicios de computación sobre datos) para reforzar la economía de FIL más allá de las simples tarifas de almacenamiento.

Render Network (Renderizado y Computación GPU Descentralizados)

Render Network es un mercado descentralizado para la computación basada en GPU, originalmente enfocado en el renderizado de gráficos 3D y ahora también soportando trabajos de entrenamiento/inferencia de modelos de IA. Su token nativo RNDR (recientemente actualizado al ticker RENDER en Solana) impulsa la economía. Los Creadores (usuarios que necesitan trabajo de GPU) pagan en RNDR por tareas de renderizado o computación, y los Operadores de Nodos (proveedores de GPU) ganan RNDR al completar esos trabajos. Este modelo básico convierte las GPUs inactivas (de propietarios individuales de GPU o centros de datos) en una granja de renderizado en la nube distribuida. Para garantizar la calidad y la equidad, Render utiliza contratos inteligentes de depósito en garantía (escrow): los clientes envían trabajos y queman el pago equivalente en RNDR, que se retiene hasta que los operadores de nodos presentan una prueba de haber completado el trabajo, momento en el que se libera el RNDR como recompensa. Originalmente, RNDR funcionaba como un token de utilidad/pago puro, pero la red ha revisado recientemente su tokenómica a un modelo de Equilibrio de Quema y Acuñación (BME) para equilibrar mejor la oferta y la demanda.

Bajo el modelo BME, todos los trabajos de renderizado o computación tienen un precio en términos estables (USD) y se pagan en tokens RENDER, que se queman al completar el trabajo. En paralelo, el protocolo acuña nuevos tokens RENDER según un cronograma de emisiones decrecientes predefinido para compensar a los operadores de nodos y otros participantes. En efecto, los pagos de los usuarios por el trabajo destruyen tokens mientras que la red infla los tokens a una tasa controlada como recompensas de minería; la oferta neta puede aumentar o disminuir con el tiempo dependiendo del uso. La comunidad aprobó una emisión inicial de ~9.1 millones de RENDER en el primer año de BME (mediados de 2023 a mediados de 2024) como incentivos de red, y estableció un suministro máximo a largo plazo de aproximadamente 644 millones de RENDER (un aumento desde los 536.9 millones de RNDR iniciales que se acuñaron en el lanzamiento). Notablemente, la distribución de tokens de RENDER favoreció en gran medida el crecimiento del ecosistema: el 65% del suministro inicial se asignó a una tesorería (para futuros incentivos de red), el 25% a inversores y el 10% al equipo/asesores. Con BME, esa tesorería se está desplegando a través de las emisiones controladas para recompensar a los proveedores de GPU y otros contribuyentes, mientras que el mecanismo de quema vincula esas recompensas directamente al uso de la plataforma. RNDR también sirve como un token de gobernanza (los poseedores de tokens pueden votar en las propuestas de Render Network). Además, los operadores de nodos en Render pueden hacer staking de RNDR para señalar su fiabilidad y potencialmente recibir más trabajo, añadiendo otra capa de incentivos.

Creación de valor económico: Render Network crea valor al suministrar computación GPU bajo demanda a una fracción del costo de las instancias de GPU en la nube tradicionales. A finales de 2023, el fundador de Render señaló que los estudios ya habían utilizado la red para renderizar gráficos de calidad cinematográfica con ventajas significativas de costo y velocidad: “una décima parte del costo” y con una capacidad agregada masiva más allá de cualquier proveedor de nube único. Esta ventaja de costo es posible porque Render aprovecha las GPUs inactivas a nivel mundial (desde equipos de aficionados hasta granjas de renderizado profesionales) que de otro modo estarían ociosas. Con la creciente demanda de tiempo de GPU (tanto para gráficos como para IA), el mercado de Render satisface una necesidad crítica. Crucialmente, el modelo de token BME significa que el valor del token está directamente vinculado al uso del servicio: a medida que más trabajos de renderizado e IA fluyen a través de la red, más RENDER se quema (creando presión de compra o reduciendo la oferta), mientras que los incentivos para los nodos solo aumentan a medida que se completan esos trabajos. Esto ayuda a evitar "pagar por nada": si el uso de la red se estanca, las emisiones de tokens eventualmente superan las quemas (inflando la oferta), pero si el uso crece, las quemas pueden compensar o incluso superar las emisiones, haciendo que el token sea potencialmente deflacionario mientras sigue recompensando a los operadores. El fuerte interés en el modelo de Render se reflejó en el mercado: el precio de RNDR se disparó en 2023, aumentando más del 1,000% en valor a medida que los inversores anticipaban una creciente demanda de servicios de GPU descentralizados en medio del auge de la IA. Respaldado por OTOY (un líder en software de renderizado en la nube) y utilizado en producción por algunos estudios importantes, Render Network se posiciona como un jugador clave en la intersección de Web3 y la computación de alto rendimiento.

Akash Network (Computación en la Nube Descentralizada)

Akash es un mercado de computación en la nube descentralizado que permite a los usuarios alquilar computación general (VMs, contenedores, etc.) de proveedores con capacidad de servidor de sobra. Piénsalo como una alternativa descentralizada a AWS o Google Cloud, impulsada por un sistema de subasta inversa basado en blockchain. El token nativo AKT es central para la economía de Akash: los clientes pagan los arrendamientos de computación en AKT, y los proveedores ganan AKT por suministrar recursos. Akash está construido sobre el SDK de Cosmos y utiliza una blockchain de Prueba de Participación Delegada para la seguridad y coordinación. Por lo tanto, AKT también funciona como un token de staking y gobernanza: los validadores hacen staking de AKT (y los usuarios delegan AKT a los validadores) para asegurar la red y ganar recompensas de staking.

El mercado de Akash opera a través de un sistema de pujas: un cliente define un despliegue (CPU, RAM, almacenamiento, posiblemente requisitos de GPU) y un precio máximo, y múltiples proveedores pueden pujar para alojarlo, haciendo bajar el precio. Una vez que el cliente acepta una puja, se forma un arrendamiento y la carga de trabajo se ejecuta en la infraestructura del proveedor elegido. Los pagos por los arrendamientos son manejados por la blockchain: el cliente deposita AKT en garantía y este se transfiere al proveedor con el tiempo mientras el despliegue esté activo. De manera única, la red de Akash cobra una "tasa de comisión" del protocolo en cada arrendamiento para financiar el ecosistema y recompensar a los stakers de AKT: el 10% del monto del arrendamiento si se paga en AKT (o el 20% si se paga en otra moneda) se desvía como tarifas a la tesorería de la red y a los stakers. Esto significa que los stakers de AKT ganan una porción de todo el uso, alineando el valor del token con la demanda real en la plataforma. Para mejorar la usabilidad para los usuarios convencionales, Akash ha integrado pagos con stablecoins y tarjetas de crédito (a través de su aplicación de consola): un cliente puede pagar en stablecoin USD, que bajo el capó se convierte a AKT (con una tasa de comisión más alta). Esto reduce el riesgo de volatilidad para los usuarios mientras sigue impulsando el valor del token AKT (ya que esos pagos con stablecoin finalmente resultan en la compra/quema o distribución de AKT a los stakers).

En el lado de la oferta, la tokenómica de AKT está diseñada para incentivar la participación a largo plazo. Akash comenzó con 100 millones de AKT en su génesis y tiene un suministro máximo de 389 millones a través de la inflación. La tasa de inflación es adaptativa basada en la proporción de AKT en staking: apunta a una inflación anual del 20–25% si la proporción de staking es baja, y alrededor del 15% si un alto porcentaje de AKT está en staking. Esta inflación adaptativa (un diseño común en las cadenas basadas en Cosmos) alienta a los poseedores a hacer staking (contribuyendo a la seguridad de la red) recompensándolos más cuando la participación en el staking es baja. Las recompensas de bloque de la inflación pagan a los validadores y delegadores, además de financiar una reserva para el crecimiento del ecosistema. La distribución inicial de AKT reservó asignaciones para inversores, el equipo central (Overclock Labs) y un fondo de la fundación para incentivos del ecosistema (por ejemplo, un programa temprano en 2024 financió a proveedores de GPU para que se unieran).

Creación de valor económico: Akash crea valor al ofrecer computación en la nube a costos potencialmente mucho más bajos que los proveedores de nube establecidos, aprovechando servidores subutilizados en todo el mundo. Al descentralizar la nube, también busca llenar vacíos regionales y reducir la dependencia de unas pocas grandes empresas tecnológicas. El token AKT acumula valor desde múltiples ángulos: tarifas del lado de la demanda (más cargas de trabajo = más tarifas de AKT fluyendo a los stakers), necesidades del lado de la oferta (los proveedores pueden mantener o hacer staking de sus ganancias, y necesitan hacer staking de algo de AKT como colateral para proporcionar servicios), y el crecimiento general de la red (se necesita AKT para la gobernanza y como moneda de reserva en el ecosistema). Es importante destacar que, a medida que se ejecutan más cargas de trabajo reales en Akash, la proporción de AKT en circulación que se utiliza para staking y depósitos de tarifas debería aumentar, reflejando una utilidad real. Inicialmente, Akash vio un uso modesto para servicios web y alojamiento de infraestructura cripto, pero a finales de 2023 expandió el soporte para cargas de trabajo de GPU, lo que hizo posible ejecutar entrenamiento de IA, aprendizaje automático y trabajos de computación de alto rendimiento en la red. Esto ha impulsado significativamente el uso de Akash en 2024. Para el tercer trimestre de 2024, las métricas de la red mostraron un crecimiento explosivo: el número de despliegues activos ("arrendamientos") creció un 1,729% interanual, y la tarifa promedio por arrendamiento (un indicador de la complejidad de las cargas de trabajo) aumentó un 688%. En la práctica, esto significa que los usuarios están desplegando muchas más aplicaciones en Akash y están dispuestos a ejecutar cargas de trabajo más grandes y prolongadas (muchas de ellas con GPUs), evidencia de que los incentivos de tokens han atraído una demanda de pago real. El equipo de Akash informó que para finales de 2024, la red tenía más de 700 GPUs en línea con una utilización de ~78% (es decir, ~78% de la capacidad de GPU alquilada en cualquier momento). Esta es una fuerte señal de una conversión eficiente de los incentivos de tokens (ver la siguiente sección). El modelo de reparto de tarifas incorporado también significa que a medida que este uso crece, los stakers de AKT reciben ingresos del protocolo, vinculando efectivamente las recompensas de tokens a los ingresos reales del servicio, un diseño económico más saludable a largo plazo.

io.net (Nube de GPU Descentralizada para IA)

io.net es un participante más reciente (construido en Solana) que aspira a convertirse en la "red de GPU más grande del mundo" específicamente orientada a cargas de trabajo de IA y aprendizaje automático. Su modelo económico se inspira en proyectos anteriores como Render y Akash. El token nativo IO tiene un suministro máximo fijo de 800 millones. En el lanzamiento, se pre-acuñaron 500 millones de IO y se asignaron a varias partes interesadas, y los 300 millones de IO restantes se emiten como recompensas de minería durante un período de 20 años (distribuidos por hora a proveedores de GPU y stakers). Notablemente, io.net implementa un mecanismo de quema basado en ingresos: una parte de las tarifas/ingresos de la red se utiliza para quemar tokens IO, vinculando directamente la oferta de tokens al uso de la plataforma. Esta combinación —un suministro limitado con emisiones liberadas en el tiempo y una quema impulsada por el uso— tiene la intención de garantizar la sostenibilidad a largo plazo de la economía del token.

Para unirse a la red como un nodo de GPU, los proveedores deben hacer staking de una cantidad mínima de IO como colateral. Esto sirve para dos propósitos: disuade a los nodos maliciosos o de baja calidad (ya que tienen "algo en juego"), y reduce la presión de venta inmediata de los tokens de recompensa (ya que los nodos deben bloquear algunos tokens para participar). Los stakers (que pueden incluir tanto a proveedores como a otros participantes) también ganan una parte de las recompensas de la red, alineando los incentivos en todo el ecosistema. En el lado de la demanda, los clientes (desarrolladores de IA, etc.) pagan por la computación de GPU en io.net, presumiblemente en tokens IO o posiblemente en equivalentes estables; el proyecto afirma ofrecer potencia de GPU en la nube a un costo hasta un 90% más bajo que los proveedores tradicionales como AWS. Estas tarifas de uso impulsan el mecanismo de quema: a medida que fluyen los ingresos, una parte de los tokens se quema, vinculando el éxito de la plataforma a la escasez del token.

Creación de valor económico: La propuesta de valor de io.net es agregar potencia de GPU de muchas fuentes (centros de datos, mineros de criptomonedas que reutilizan sus equipos de minería, etc.) en una única red que puede ofrecer computación bajo demanda para IA a una escala masiva. Al aspirar a incorporar más de 1 millón de GPUs a nivel mundial, io.net busca superar en escala a cualquier nube única y satisfacer la creciente demanda de entrenamiento e inferencia de modelos de IA. El token IO captura valor a través de una combinación de mecanismos: la oferta es limitada (por lo que el valor del token puede crecer si la demanda de servicios de la red crece), el uso quema tokens (creando directamente una retroalimentación de valor al token a partir de los ingresos del servicio), y las recompensas de tokens impulsan la oferta (distribuyendo gradualmente tokens a quienes contribuyen con GPUs, asegurando el crecimiento de la red). En esencia, el modelo económico de io.net es un enfoque DePIN refinado donde los incentivos del lado de la oferta (emisiones horarias de IO) son sustanciales pero finitos, y se contrarrestan con sumideros de tokens (quemas) que escalan con el uso real. Esto está diseñado para evitar la trampa de una inflación excesiva sin demanda. Como veremos, la tendencia de la computación de IA proporciona un mercado grande y en crecimiento para que redes como io.net lo aprovechen, lo que podría impulsar el equilibrio deseado donde los incentivos de tokens conducen a un uso robusto del servicio. (io.net todavía está emergiendo, por lo que sus métricas del mundo real aún están por demostrarse, pero su diseño apunta claramente a las necesidades del sector de la computación de IA).

Tabla 1: Características Clave del Modelo Económico de Proyectos DePIN Seleccionados

ProyectoSectorToken (Ticker)Suministro y DistribuciónMecanismo de IncentivoUtilidad del Token y Flujo de Valor
HeliumInalámbrico Descentralizado (IoT y 5G)Helium Network Token (HNT); más sub-tokens IOT y MOBILESuministro variable, emisión decreciente: Las emisiones de HNT se reducen a la mitad cada ~2 años (según la blockchain original), apuntando a ~223M de HNT en circulación después de 50 años. Migrado a Solana con 2 nuevos sub-tokens: IOT y MOBILE recompensados a los propietarios de hotspots de IoT y 5G.Minería de Prueba de Cobertura: Los hotspots ganan tokens IOT o MOBILE por proporcionar cobertura (LoRaWAN o 5G). Esos sub-tokens pueden convertirse a HNT a través de fondos de tesorería. HNT se utiliza en staking para gobernanza (veHNT) y es la base de las recompensas en todas las redes.Uso de la red a través de Créditos de Datos: HNT se quema para crear Créditos de Datos (DC) para la conectividad de dispositivos (precio fijo de $0.0001 por 24 bytes). Todas las tarifas de la red (compras de DC) queman efectivamente HNT (reduciendo el suministro). El valor del token se vincula así a la demanda de transferencia de datos IoT/Móvil. El valor de HNT también respalda los tokens de subDAO (dándoles convertibilidad a un activo escaso).
FilecoinAlmacenamiento DescentralizadoFilecoin (FIL)Suministro limitado de 2 mil millones: 70% asignado a recompensas de minería de almacenamiento (liberado durante décadas); ~30% a Protocol Labs, inversores y la fundación. Las recompensas de bloque siguen una vida media de seis años (mayor inflación al principio, disminuyendo después).Minería de almacenamiento: Los proveedores de almacenamiento ganan recompensas de bloque de FIL proporcionales al almacenamiento probado contribuido. Los clientes pagan FIL por almacenar o recuperar datos. Los mineros depositan colateral en FIL que puede ser penalizado (slashed) por fallos. Filecoin Plus otorga una recompensa de poder 10x por datos de clientes "útiles" para incentivar el almacenamiento real.Pago y colateral: FIL es la moneda para los acuerdos de almacenamiento: los clientes gastan FIL para almacenar datos, creando una demanda orgánica para el token. Los mineros bloquean FIL como colateral (reduciendo temporalmente el suministro circulante) y ganan FIL por un servicio útil. A medida que crece el uso, más FIL se vincula en acuerdos y colateral. Las tarifas de red (para transacciones) son mínimas (Filecoin se centra en las tarifas de almacenamiento que van a los mineros). A largo plazo, el valor de FIL depende de la demanda de almacenamiento de datos y de casos de uso emergentes (p. ej., la Máquina Virtual de Filecoin que permite contratos inteligentes para datos, generando potencialmente nuevos sumideros de tarifas).
Render NetworkComputación GPU Descentralizada (Renderizado e IA)Render Token (RNDR / RENDER)Suministro inicial ~536.9M RNDR, aumentado a un máximo de ~644M a través de nuevas emisiones. Equilibrio de Quema y Acuñación: Se emiten nuevos RENDER en un cronograma fijo (fondo de inflación del 20% durante ~5 años, luego emisiones de cola). Las emisiones financian incentivos de red (recompensas de nodos, etc.). Quema: Los pagos de los usuarios en RENDER se queman por cada trabajo completado. Distribución: 65% tesorería (operaciones de red y recompensas), 25% inversores, 10% equipo/asesores.Mercado para trabajo de GPU: Los operadores de nodos realizan tareas de renderizado/computación y ganan RENDER. Los trabajos tienen un precio en USD pero se pagan en RENDER; los tokens requeridos se queman cuando se completa el trabajo. En cada época (p. ej., semanalmente), se acuñan nuevos RENDER y se distribuyen a los operadores de nodos según el trabajo que completaron. Los operadores de nodos también pueden hacer staking de RNDR para mayor confianza y posible prioridad de trabajo.Utilidad y flujo de valor: RENDER es el token de tarifa para los servicios de GPU: los creadores de contenido y los desarrolladores de IA deben adquirirlo y gastarlo para realizar trabajos. Debido a que esos tokens se queman, el uso reduce directamente el suministro. La emisión de nuevos tokens compensa a los trabajadores, pero en un cronograma decreciente. Si la demanda de la red es alta (quema > emisión), RENDER se vuelve deflacionario; si la demanda es baja, la inflación puede superar las quemas (incentivando más oferta hasta que la demanda se ponga al día). RENDER también gobierna la red. El valor del token está, por lo tanto, estrechamente vinculado al uso de la plataforma; de hecho, RNDR se revalorizó ~10x en 2023 a medida que la demanda de computación GPU impulsada por la IA se disparó, lo que indica la confianza del mercado en que el uso (y las quemas) será alto.
Akash NetworkNube Descentralizada (computación general y GPU)Akash Token (AKT)Suministro inicial 100M; suministro máximo 389M. Token PoS inflacionario: Inflación adaptativa de ~15–25% anual (disminuyendo a medida que aumenta el % de staking) para incentivar el staking. Las emisiones continuas pagan a validadores y delegadores. Distribución: 34.5% inversores, 27% equipo, 19.7% fundación, 8% ecosistema, 5% testnet (con bloqueos/vesting).Mercado de subasta inversa: Los proveedores pujan para alojar despliegues; los clientes pagan en AKT por los arrendamientos. Fondo de tarifas: 10% de los pagos en AKT (o 20% de los pagos en otros tokens) va a la red (stakers) como tarifa de protocolo. Akash utiliza una cadena de Prueba de Participación (Proof-of-Stake): los validadores hacen staking de AKT para asegurar la red y ganar recompensas de bloque. Los clientes pueden pagar con AKT o stablecoins integradas (con conversión).Utilidad y flujo de valor: AKT se utiliza para todas las transacciones (directamente o mediante conversión de pagos estables). Los clientes compran AKT para pagar los arrendamientos de computación, creando demanda a medida que crece el uso de la red. Los proveedores ganan AKT y pueden venderlo o hacer staking. Recompensas de staking + ingresos por tarifas: Mantener y hacer staking de AKT genera recompensas de la inflación y una parte de todas las tarifas, por lo que el uso activo de la red beneficia directamente a los stakers. Este modelo alinea el valor del token con la demanda de la nube: a medida que se ejecutan más cargas de trabajo de CPU/GPU en Akash, más tarifas en AKT fluyen a los poseedores (y más AKT podría bloquearse como colateral o en staking por los proveedores). La gobernanza también se realiza a través de las tenencias de AKT. En general, la salud del token mejora con una mayor utilización y tiene controles de inflación para fomentar la participación a largo plazo.
io.netNube de GPU Descentralizada (enfocada en IA)IO Token (IO)Límite fijo de 800M IO: 500M pre-acuñados (asignados a equipo, inversores, comunidad, etc.), 300M emitidos durante ~20 años como recompensas de minería (distribución horaria). No hay más inflación después de ese límite. Quema incorporada: Los ingresos de la red activan quemas de tokens para reducir el suministro. Staking: los proveedores deben hacer staking de un mínimo de IO para participar (y pueden hacer más staking para obtener recompensas).Red de compartición de GPU: Los proveedores de hardware (centros de datos, mineros) conectan GPUs y ganan recompensas de IO continuamente (por hora) por contribuir con capacidad. También ganan tarifas por el uso de los clientes. Requisito de staking: Los operadores hacen staking de IO como colateral para asegurar un buen comportamiento. Los usuarios probablemente pagan en IO (o en stablecoins convertidas a IO) por tareas de computación de IA; una parte de cada tarifa es quemada por el protocolo.Utilidad y flujo de valor: IO es el medio de intercambio para la potencia de computación de GPU en la red, y también el token de seguridad que los operadores ponen en staking. El valor del token es impulsado por una trifecta: (1) Demanda de computación de IA – los clientes deben adquirir IO para pagar los trabajos, y un mayor uso significa más tokens quemados (reduciendo el suministro). (2) Incentivos de minería – los nuevos IO distribuidos a los proveedores de GPU motivan el crecimiento de la red, pero el límite fijo limita la inflación a largo plazo. (3) Staking – IO es bloqueado por los proveedores (y posiblemente por usuarios o delegados) para ganar recompensas, reduciendo el suministro líquido y alineando a los participantes con el éxito de la red. En resumen, el modelo de token de io.net está diseñado para que si atrae con éxito cargas de trabajo de IA a escala, el suministro de tokens se vuelva cada vez más escaso (a través de quemas y staking), beneficiando a los poseedores. El suministro fijo también impone disciplina, evitando la inflación interminable y apuntando a un equilibrio sostenible de "recompensa por ingresos".

Fuentes: Documentación oficial e investigación de cada proyecto (ver citas en línea arriba).

Incentivos de Tokens vs. Uso Real del Servicio

Una pregunta crítica para los proyectos DePIN es cuán eficazmente los incentivos de tokens se convierten en una provisión real de servicios y un uso real de la red. En las etapas iniciales, muchos protocolos DePIN enfatizaron el arranque de la oferta (despliegue de hardware) a través de generosas recompensas de tokens, incluso si la demanda era mínima, una estrategia de "constrúyelo y (con suerte) vendrán". Esto llevó a situaciones en las que la capitalización de mercado de la red y las emisiones de tokens superaban con creces los ingresos de los clientes. A finales de 2024, todo el sector DePIN (~350 proyectos) tenía una capitalización de mercado combinada de ~$50 mil millones, pero generaba solo ~$0.5 mil millones en ingresos anualizados, una valoración agregada de ~100 veces los ingresos anuales. Tal brecha subraya la ineficiencia en las etapas iniciales. Sin embargo, las tendencias recientes muestran mejoras a medida que las redes pasan de un crecimiento puramente impulsado por la oferta a una adopción impulsada por la demanda, especialmente impulsada por el aumento de las necesidades de computación de IA.

A continuación, evaluamos la eficiencia de los incentivos de tokens de cada proyecto de ejemplo, observando las métricas de uso frente a los desembolsos de tokens:

  • Helium: La red IoT de Helium creció explosivamente en 2021–2022, con casi 1 millón de hotspots desplegados a nivel mundial para la cobertura LoRaWAN. Este crecimiento fue impulsado casi en su totalidad por los incentivos de minería de HNT y el entusiasmo cripto, no por la demanda de los clientes de datos IoT, que se mantuvo baja. A mediados de 2022, quedó claro que el tráfico de datos de Helium (dispositivos que realmente usaban la red) era minúsculo en relación con la enorme inversión del lado de la oferta. Un análisis en 2022 señaló que se quemaban menos de $1,000 en tokens por uso de datos al mes, incluso cuando la red estaba acuñando decenas de millones de dólares en HNT para recompensas de hotspots, un desequilibrio marcado (esencialmente, <1% de la emisión de tokens se compensaba con el uso de la red). A finales de 2022 y 2023, las recompensas de tokens HNT sufrieron halvings programados (reduciendo la emisión), pero el uso todavía estaba rezagado. Un ejemplo de noviembre de 2023: el valor en dólares de los Créditos de Datos de Helium quemados fue de solo unos $156 para ese día, mientras que la red todavía pagaba un estimado de $55,000 por día en recompensas de tokens a los propietarios de hotspots (valorados en USD). En otras palabras, el "costo" del incentivo de tokens de ese día superó el uso real de la red en un factor de 350:1. Esto ilustra la pobre conversión de incentivo a uso en la fase inicial de IoT de Helium. Los fundadores de Helium reconocieron este dilema del "huevo y la gallina": una red necesita cobertura antes de poder atraer usuarios, pero sin usuarios la cobertura es difícil de monetizar.

    Hay señales de mejora. A finales de 2023, Helium activó su red 5G Mobile con un servicio celular orientado al consumidor (respaldado por roaming de T-Mobile) y comenzó a recompensar a los operadores de hotspots 5G con tokens MOBILE. El lanzamiento de Helium Mobile (5G) atrajo rápidamente a usuarios de pago (por ejemplo, suscriptores al plan móvil ilimitado de $20/mes de Helium) y nuevos tipos de uso de la red. En cuestión de semanas, el uso de la red de Helium se disparó: a principios de 2024, la quema diaria de Créditos de Datos alcanzó $4,300 (frente a casi nada un par de meses antes). Además, el 92% de todos los Créditos de Datos consumidos provenían de la red Mobile (5G) a partir del primer trimestre de 2024, lo que significa que el servicio 5G eclipsó inmediatamente el uso de IoT. Si bien $4.3k/día sigue siendo modesto en términos absolutos ($1.6 millones anualizados), representa un paso significativo hacia ingresos reales. El modelo de token de Helium se está adaptando: al aislar las redes de IoT y Mobile en tokens de recompensa separados, se asegura de que las recompensas de 5G (tokens MOBILE) se reducirán si el uso de 5G no se materializa, y de manera similar para los tokens IOT, conteniendo efectivamente la ineficiencia. El crecimiento de Helium Mobile también demostró el poder de acoplar los incentivos de tokens con un servicio de interés inmediato para el consumidor (datos celulares baratos). A los 6 meses del lanzamiento, Helium tenía ~93,000 hotspots MOBILE desplegados en los EE. UU. (junto con ~1 millón de hotspots IoT en todo el mundo), y había establecido asociaciones (por ejemplo, con Telefónica) para expandir la cobertura. El desafío futuro es aumentar sustancialmente la base de usuarios (tanto clientes de dispositivos IoT como suscriptores de 5G) para que la quema de HNT por Créditos de Datos se acerque a la escala de la emisión de HNT. En resumen, Helium comenzó con un excedente extremo de oferta (y un token correspondientemente sobrevalorado), pero su giro hacia la demanda (5G, y posicionarse como una "capa de infraestructura" para otras redes) está mejorando gradualmente la eficiencia de sus incentivos de tokens.

  • Filecoin: En el caso de Filecoin, el desequilibrio estaba entre la capacidad de almacenamiento vs. los datos realmente almacenados. Los incentivos de tokens llevaron a una sobreabundancia de oferta: en su apogeo, la red Filecoin tenía más de 15 exbibytes (EiB) de capacidad de almacenamiento bruto comprometida por los mineros, pero durante mucho tiempo solo un pequeño porcentaje de eso fue utilizado por datos reales. Gran parte del espacio se llenó con datos ficticios (los clientes podían incluso almacenar datos basura aleatorios para satisfacer los requisitos de prueba) solo para que los mineros pudieran ganar recompensas de FIL. Esto significaba que se estaba acuñando y otorgando mucho FIL por almacenamiento que en realidad no era demandado por los usuarios. Sin embargo, durante 2022–2023 la red hizo grandes avances en impulsar la demanda. A través de iniciativas como Filecoin Plus y la incorporación agresiva de conjuntos de datos abiertos, la tasa de utilización subió de ~3% a más del 20% de la capacidad en 2023. Para el cuarto trimestre de 2024, la utilización del almacenamiento de Filecoin había aumentado aún más hasta ~30%, lo que significa que casi un tercio de la enorme capacidad contenía datos reales de clientes. Esto todavía está lejos del 100%, pero la tendencia es positiva: las recompensas de tokens se destinan cada vez más a almacenamiento útil en lugar de relleno vacío. Otra medida: a partir del primer trimestre de 2024, aproximadamente 1,900 PiB (1.9 EiB) de datos se almacenaron en acuerdos activos en Filecoin, un aumento interanual del 200%. Notablemente, la mayoría de los nuevos acuerdos ahora provienen de Filecoin Plus (clientes verificados), lo que indica que los mineros prefieren fuertemente dedicar espacio a datos que les otorgan multiplicadores de recompensa adicionales.

    En términos de eficiencia económica, el protocolo de Filecoin también experimentó un cambio: inicialmente, los "ingresos" del protocolo (tarifas pagadas por los usuarios) eran insignificantes en comparación con las recompensas de minería (que algunos análisis trataron como ingresos, inflando las cifras iniciales). Por ejemplo, en 2021, las recompensas de bloque de Filecoin valían cientos de millones de dólares (a precios altos de FIL), pero las tarifas de almacenamiento reales eran minúsculas; en 2022, a medida que el precio de FIL cayó, los ingresos reportados cayeron un 98% de $596M a $13M, lo que refleja que la mayor parte de los "ingresos" de 2021 era el valor de la emisión de tokens en lugar del gasto de los clientes. De cara al futuro, el equilibrio está mejorando: la cartera de clientes de almacenamiento de pago está creciendo (por ejemplo, se cerró un acuerdo empresarial de 1 PiB a finales de 2023, uno de los primeros grandes acuerdos totalmente pagados). La introducción de la FVM (que permite contratos inteligentes) por parte de Filecoin y los próximos mercados de almacenamiento y DEXes se espera que traigan más actividad de tarifas en la cadena (y posiblemente quemas o bloqueos de FIL). En resumen, los incentivos de tokens de Filecoin construyeron con éxito una red de almacenamiento global masiva, aunque con una eficiencia inferior al 5% en el período inicial; para 2024 esa eficiencia mejoró a ~20–30% y está en camino de aumentar aún más a medida que la demanda real se ponga al día con la oferta subsidiada. La demanda general del sector de almacenamiento descentralizado (datos de Web3, archivos, metadatos de NFT, conjuntos de datos de IA, etc.) parece estar aumentando, lo que augura un buen futuro para convertir más de esas recompensas de minería en un servicio realmente útil.

  • Render Network: El modelo de token de Render vincula inherentemente los incentivos al uso de manera más estrecha, gracias al equilibrio de quema y acuñación. En el modelo heredado (antes de 2023), la emisión de RNDR estaba en gran medida en manos de la fundación y se basaba en los objetivos de crecimiento de la red, mientras que el uso implicaba bloquear RNDR en depósito para los trabajos. Esto dificultaba un poco el análisis de la eficiencia. Sin embargo, con el BME completamente implementado en 2023, podemos medir cuántos tokens se queman en relación con los acuñados. Dado que cada trabajo de renderizado o computación quema RNDR proporcional a su costo, esencialmente cada token emitido como recompensa corresponde a un trabajo realizado (menos cualquier inflación neta si las emisiones > quemas en una época determinada). Los primeros datos de la red Render después de la actualización indicaron que el uso estaba aumentando: la Fundación Render señaló que en "momentos pico" la red podría estar completando más fotogramas de renderizado por segundo de los que Ethereum podría manejar en transacciones, lo que subraya una actividad significativa. Si bien las estadísticas de uso detalladas (por ejemplo, el número de trabajos o las horas de GPU consumidas) no son públicas en el fragmento anterior, un indicador fuerte es el precio y la demanda de RNDR. En 2023, RNDR se convirtió en uno de los activos cripto de mejor rendimiento, pasando de aproximadamente $0.40 en enero a más de $2.50 en mayo, y continuando su ascenso a partir de entonces. Para noviembre de 2023, RNDR había subido más de 10 veces en lo que va del año, impulsado por el frenesí por la potencia de computación relacionada con la IA. Esta acción del precio sugiere que los usuarios estaban comprando RNDR para realizar trabajos de renderizado e IA (o los especuladores anticipaban que necesitarían hacerlo). De hecho, el interés en las tareas de IA probablemente trajo una nueva ola de demanda: Render informó que su red se estaba expandiendo más allá del renderizado de medios hacia el entrenamiento de modelos de IA, y que la escasez de GPU en las nubes tradicionales significaba que la demanda superaba con creces la oferta en este nicho. En esencia, los incentivos de tokens de Render (las emisiones) se han encontrado con una demanda de usuarios igualmente fuerte (quemas), lo que hace que su conversión de incentivo a uso sea relativamente alta. Vale la pena señalar que en el primer año de BME, la red asignó intencionalmente algunos tokens adicionales (las emisiones de 9.1M de RENDER) para impulsar las ganancias de los operadores de nodos. Si eso supera el uso, podría introducir alguna ineficiencia inflacionaria temporal. Sin embargo, dado el crecimiento de la red, la tasa de quema de RNDR ha ido en aumento. El Panel de Control de Render Network a mediados de 2024 mostraba aumentos constantes en el RNDR acumulado quemado, lo que indica que se están procesando trabajos reales. Otra señal cualitativa de éxito: grandes estudios y creadores de contenido han utilizado Render para proyectos de alto perfil, demostrando una adopción en el mundo real (no son solo entusiastas de las criptomonedas ejecutando nodos, son clientes que pagan por el renderizado). En conjunto, Render parece tener una de las métricas de conversión de token a servicio más efectivas en DePIN: si la red está ocupada, se quema RNDR y los poseedores de tokens ven un valor tangible; si la red estuviera inactiva, las emisiones de tokens serían el único resultado, pero el entusiasmo en torno a la IA ha asegurado que la red esté lejos de estar inactiva.

  • Akash: La eficiencia de Akash se puede ver en el contexto del gasto en la nube vs. la emisión de tokens. Como una cadena de prueba de participación, el AKT de Akash tiene inflación para recompensar a los validadores, pero esa inflación no es excesivamente alta (y una gran parte se compensa con los bloqueos de staking). La parte más interesante es cuánto uso real está capturando el token. En 2022, el uso de Akash era relativamente bajo (solo unos pocos cientos de despliegues en cualquier momento, principalmente aplicaciones pequeñas o redes de prueba). Esto significaba que el valor de AKT era especulativo, no respaldado por tarifas. Sin embargo, en 2023–2024, el uso explotó debido a la IA. A finales de 2024, Akash procesaba ~$11k de gasto por día en su red, frente a solo ~$1.3k/día en enero de 2024, un aumento del ~749% en los ingresos diarios en el año. En el transcurso de 2024, Akash superó los $1.6 millones en gasto pagado acumulado por computación. Estas cifras, aunque todavía pequeñas en comparación con gigantes como AWS, representan clientes reales que despliegan cargas de trabajo en Akash y pagan en AKT o USDC (lo que finalmente impulsa la demanda de AKT a través de la conversión). Los incentivos de tokens (recompensas inflacionarias) durante ese período fueron del orden de quizás el 15–20% de los 130M de AKT en circulación (20–26M de AKT acuñados en 2024, que a $1–3 por AKT podría ser un valor de $20–50M). Así que en términos de dólares puros, la red todavía emitía más valor en tokens del que ingresaba en tarifas, similar a otras redes en etapa inicial. Pero la tendencia es que el uso se está poniendo al día rápidamente. Una estadística reveladora: comparando el tercer trimestre de 2024 con el tercer trimestre de 2023, la tarifa promedio por arrendamiento aumentó de $6.42 a $18.75. Esto significa que los usuarios están ejecutando cargas de trabajo mucho más intensivas en recursos (y por lo tanto más caras), probablemente GPUs para IA, y están dispuestos a pagar más, presumiblemente porque la red ofrece valor (por ejemplo, un costo más bajo que las alternativas). Además, debido a que Akash cobra una tarifa del 10–20% en los arrendamientos al protocolo, eso significa que el 10–20% de esos $1.6M de gasto acumulado fue para los stakers como rendimiento real. En el cuarto trimestre de 2024, el precio de AKT alcanzó nuevos máximos de varios años ($4, un aumento de 8x desde los mínimos de mediados de 2023), lo que indica que el mercado reconoció la mejora de los fundamentos y el uso. Los datos en cadena de finales de 2024 mostraron más de 650 arrendamientos activos y más de 700 GPUs en la red con una utilización de ~78%, efectivamente, la mayoría de las GPUs agregadas a través de incentivos estaban realmente en uso por los clientes. Esta es una fuerte conversión de incentivos de tokens en servicio: casi 4 de cada 5 GPUs incentivadas estaban sirviendo a desarrolladores de IA (para entrenamiento de modelos, etc.). Los pasos proactivos de Akash, como habilitar pagos con tarjeta de crédito y soportar frameworks de IA populares, ayudaron a conectar los tokens cripto con usuarios del mundo real (algunos usuarios podrían ni siquiera saber que están pagando por AKT bajo el capó). En general, aunque Akash inicialmente tuvo el problema común de DePIN de "oferta > demanda", se está moviendo rápidamente hacia un estado más equilibrado. Si la demanda de IA continúa, Akash podría incluso acercarse a un régimen donde la demanda supere los incentivos de tokens; en otras palabras, el uso podría impulsar el valor de AKT más que la inflación especulativa. El diseño del protocolo para compartir tarifas con los stakers también significa que los poseedores de AKT se benefician directamente a medida que mejora la eficiencia (por ejemplo, a finales de 2024, los stakers estaban obteniendo un rendimiento significativo de las tarifas reales, no solo de la inflación).

  • io.net: Siendo un proyecto muy nuevo (lanzado en 2023/24), la eficiencia de io.net es todavía en gran medida teórica, pero su modelo está construido explícitamente para maximizar la conversión de incentivos. Al limitar rígidamente el suministro e instituir recompensas por hora, io.net evita el escenario de una inflación indefinida y descontrolada. Y al quemar tokens basados en los ingresos, se asegura de que tan pronto como la demanda se active, haya un contrapeso automático a las emisiones de tokens. Los primeros informes afirmaban que io.net había agregado un gran número de GPUs (posiblemente incorporando granjas de minería y centros de datos existentes), lo que le daba una oferta significativa para ofrecer. La clave será si esa oferta encuentra una demanda acorde de los clientes de IA. Una señal positiva para el sector: a partir de 2024, las redes de GPU descentralizadas (incluidas Render, Akash e io.net) a menudo estaban limitadas por la capacidad, no por la demanda, lo que significa que había más demanda de los usuarios por computación de la que las redes tenían en línea en cualquier momento. Si io.net aprovecha esa demanda insatisfecha (ofreciendo precios más bajos o integraciones únicas a través del ecosistema de Solana), la quema de su token podría acelerarse. Por otro lado, si distribuyó una gran parte del suministro inicial de 500M de IO a insiders o proveedores, existe el riesgo de presión de venta si el uso se retrasa. Sin datos de uso concretos todavía, io.net sirve como una prueba del enfoque tokenómico refinado: apunta a un equilibrio impulsado por la demanda desde el principio, tratando de evitar el exceso de oferta de tokens. En los próximos años, se puede medir su éxito rastreando qué porcentaje de la emisión de 300M es efectivamente "pagado" por los ingresos de la red (quemas). La evolución del sector DePIN sugiere que io.net está entrando en un momento afortunado cuando la demanda de IA es alta, por lo que puede alcanzar una alta utilización más rápidamente que los proyectos anteriores.

En resumen, los primeros proyectos DePIN a menudo enfrentaron una baja eficiencia de los incentivos de tokens, con pagos de tokens que superaban ampliamente el uso real. La red IoT de Helium fue un ejemplo principal, donde las recompensas de tokens construyeron una red enorme que solo se utilizaba en un pequeño porcentaje. Filecoin de manera similar tuvo una abundancia de almacenamiento con pocos datos almacenados inicialmente. Sin embargo, a través de mejoras en la red y tendencias de demanda externa, estas brechas se están cerrando. El giro de Helium hacia el 5G multiplicó el uso, la utilización de Filecoin está aumentando constantemente, y tanto Render como Akash han visto un aumento del uso real en tándem con el auge de la IA, acercando sus economías de tokens a un ciclo sostenible. Una tendencia general en 2024 fue el cambio a "probar la demanda": los equipos de DePIN comenzaron a centrarse en conseguir usuarios e ingresos, no solo hardware y publicidad. Esto se evidencia en redes como Helium cortejando a socios empresariales para IoT y telecomunicaciones, Filecoin incorporando grandes conjuntos de datos de Web2, y Akash haciendo su plataforma fácil de usar para los desarrolladores de IA. El efecto neto es que los valores de los tokens están cada vez más respaldados por fundamentos (por ejemplo, horas de GPU vendidas, TB almacenados, dispositivos conectados) en lugar de solo especulación. Si bien todavía queda un largo camino por recorrer —el sector en general con una relación precio/ingresos de 100x implica que queda mucha especulación— la trayectoria es hacia un uso más eficiente de los incentivos de tokens. Los proyectos que no logren traducir los tokens en servicio (o "hardware en el terreno") probablemente desaparecerán, mientras que aquellos que logren una alta tasa de conversión están ganando la confianza de los inversores y la comunidad.

Acoplamiento con la Demanda de Computación de IA: Tendencias y Oportunidades

Uno de los desarrollos más significativos que benefician a los proyectos DePIN es el crecimiento explosivo de la demanda de computación de IA. El año 2023–2024 vio cómo el entrenamiento y despliegue de modelos de IA se convertía en un mercado multimillonario, poniendo a prueba la capacidad de los proveedores de nube tradicionales y los vendedores de GPU. Las redes de infraestructura descentralizada se han adaptado rápidamente para capturar esta oportunidad, lo que ha llevado a una convergencia a veces denominada “DePIN x IA” o incluso “IA Física Descentralizada (DePAI)” por los futuristas. A continuación, describimos cómo nuestros proyectos de enfoque y el sector DePIN en general están aprovechando la tendencia de la IA:

  • Redes de GPU Descentralizadas e IA: Proyectos como Render, Akash, io.net (y otros como Golem, Vast.ai, etc.) están a la vanguardia de la atención a las necesidades de la IA. Como se señaló, Render se expandió más allá del renderizado para soportar cargas de trabajo de IA, por ejemplo, alquilando potencia de GPU para entrenar modelos de Stable Diffusion u otras tareas de ML. El interés en la IA ha impulsado directamente el uso en estas redes. A mediados de 2023, la demanda de computación de GPU para entrenar modelos de imagen y lenguaje se disparó. Render Network se benefició ya que muchos desarrolladores e incluso algunas empresas recurrieron a ella para obtener tiempo de GPU más barato; este fue un factor en el aumento del precio de RNDR en 10x, reflejando la creencia del mercado de que Render suministraría GPUs para satisfacer las necesidades de la IA. De manera similar, el lanzamiento de GPU de Akash a finales de 2023 coincidió con el auge de la IA generativa: en meses, cientos de GPUs en Akash se estaban alquilando para ajustar modelos de lenguaje o servir APIs de IA. La tasa de utilización de GPUs en Akash alcanzando ~78% para finales de 2024 indica que casi todo el hardware incentivado encontró demanda de los usuarios de IA. io.net se está posicionando explícitamente como una "red de computación descentralizada enfocada en la IA". Promociona la integración con frameworks de IA (mencionan el uso del framework de computación distribuida Ray, popular en el aprendizaje automático, para facilitar a los desarrolladores de IA escalar en io.net). La propuesta de valor de io.net —poder desplegar un clúster de GPU en 90 segundos con una eficiencia 10–20x mayor que la nube— está dirigida directamente a startups e investigadores de IA que están limitados por instancias de GPU en la nube caras o con listas de espera. Este enfoque es estratégico: 2024 vio una escasez extrema de GPUs (por ejemplo, los chips de IA de alta gama de NVIDIA estaban agotados), y las redes descentralizadas con acceso a cualquier tipo de GPU (incluso modelos más antiguos o GPUs para juegos) intervinieron para llenar el vacío. El Foro Económico Mundial señaló la aparición de la “IA Física Descentralizada (DePAI)” donde la gente común contribuye con potencia de computación y datos a los procesos de IA y es recompensada. Este concepto se alinea con los proyectos DePIN de GPU que permiten a cualquiera con una GPU decente ganar tokens apoyando cargas de trabajo de IA. La investigación de Messari también destacó que la intensa demanda de la industria de la IA en 2024 ha sido un “acelerador significativo” para el cambio del sector DePIN hacia un crecimiento impulsado por la demanda.

  • Redes de Almacenamiento y Datos de IA: El auge de la IA no se trata solo de computación, también requiere almacenar conjuntos de datos masivos (para el entrenamiento) y distribuir modelos entrenados. Las redes de almacenamiento descentralizado como Filecoin y Arweave han encontrado nuevos casos de uso aquí. Filecoin en particular ha adoptado la IA como un vector de crecimiento clave: en 2024, la comunidad de Filecoin identificó "Computación e IA" como una de las tres áreas de enfoque. Con el lanzamiento de la Máquina Virtual de Filecoin, ahora es posible ejecutar servicios de computación cerca de los datos almacenados en Filecoin. Proyectos como Bacalhau (un proyecto de computación distribuida sobre datos) y la L2 de computación de Fluence están construyendo sobre Filecoin para permitir a los usuarios ejecutar algoritmos de IA directamente sobre los datos almacenados en la red. La idea es permitir, por ejemplo, entrenar un modelo en un gran conjunto de datos que ya está almacenado en los nodos de Filecoin, en lugar de tener que moverlo a un clúster centralizado. Las innovaciones tecnológicas de Filecoin como el Consenso Interplanetario (IPC) permiten crear subredes que podrían dedicarse a cargas de trabajo específicas (como una sidechain específica para IA que aproveche la seguridad de almacenamiento de Filecoin). Además, Filecoin está apoyando comunes de datos descentralizados que son muy relevantes para la IA; por ejemplo, conjuntos de datos de universidades, datos de vehículos autónomos o imágenes satelitales pueden alojarse en Filecoin y luego ser accedidos por modelos de IA. La red almacena con orgullo importantes conjuntos de datos relevantes para la IA (los datos de UC Berkeley y el Internet Archive mencionados, por ejemplo). En el lado del token, esto significa más clientes usando FIL para datos, pero aún más emocionante es el potencial de mercados secundarios para datos: la visión de Filecoin incluye permitir a los clientes de almacenamiento monetizar sus datos para casos de uso de entrenamiento de IA. Eso sugiere un futuro en el que poseer un gran conjunto de datos en Filecoin podría hacerte ganar tokens cuando las empresas de IA paguen por entrenar en él, etc., creando un ecosistema donde FIL fluye no solo por almacenamiento sino por derechos de uso de datos. Esto es incipiente pero destaca cuán profundamente Filecoin se está acoplando con las tendencias de la IA.

  • Redes Inalámbricas y Datos de Borde para IA: A primera vista, Helium y DePINs inalámbricos similares están menos directamente vinculados a la computación de IA. Sin embargo, hay algunas conexiones. Las redes de sensores IoT (como la subDAO de IoT de Helium, y otras como Nodle o WeatherXM) pueden suministrar valiosos datos del mundo real para alimentar modelos de IA. Por ejemplo, WeatherXM (un DePIN para datos de estaciones meteorológicas) proporciona un flujo descentralizado de datos meteorológicos que podría mejorar los modelos climáticos o las predicciones de IA; los datos de WeatherXM se están integrando a través de la L2 Basin de Filecoin precisamente por estas razones. Nodle, que utiliza teléfonos inteligentes como nodos para recopilar datos (y se considera un DePIN), está construyendo una aplicación llamada "Click" para imágenes de cámaras inteligentes descentralizadas; planean integrar Filecoin para almacenar las imágenes y potencialmente usarlas en el entrenamiento de visión por computadora de IA. El papel de Helium podría ser proporcionar la conectividad para tales dispositivos de borde; por ejemplo, una ciudad que despliega sensores IoT de Helium para la calidad del aire o el tráfico, y esos conjuntos de datos luego se utilizan para entrenar IA de planificación urbana. Además, la red 5G de Helium podría servir como infraestructura de borde para la IA en el futuro: imagina drones o vehículos autónomos que utilizan 5G descentralizado para la conectividad; los datos que generan (y consumen) podrían conectarse a sistemas de IA continuamente. Si bien Helium no ha anunciado "estrategias de IA" específicas, su empresa matriz Nova Labs ha insinuado posicionar a Helium como una capa de infraestructura general para otros proyectos DePIN. Esto podría incluir los de IA. Por ejemplo, Helium podría proporcionar la capa inalámbrica física para una flota de dispositivos impulsada por IA, mientras que las necesidades computacionales de esa flota de IA son manejadas por redes como Akash, y el almacenamiento de datos por Filecoin, una pila DePIN interconectada.

  • Crecimiento Sinergético e Inversiones: Tanto los inversores en criptomonedas como los actores tradicionales están notando la sinergia DePIN–IA. El informe de Messari de 2024 proyectó que el mercado DePIN podría crecer a $3.5 billones para 2028 (desde ~$50B en 2024) si las tendencias continúan. Esta perspectiva alcista se basa en gran medida en que la IA es una "aplicación estrella" para la infraestructura descentralizada. El concepto de DePAI (IA Física Descentralizada) visualiza un futuro en el que la gente común contribuye no solo con hardware sino también con datos a los sistemas de IA y es recompensada, rompiendo el monopolio de las grandes tecnológicas sobre los conjuntos de datos de IA. Por ejemplo, el vehículo autónomo de alguien podría recopilar datos de la carretera, subirlos a través de una red como Helium, almacenarlos en Filecoin y ser utilizados por una IA entrenándose en Akash, con cada protocolo recompensando a los contribuyentes con tokens. Aunque algo futurista, los primeros bloques de construcción de esta visión están apareciendo (por ejemplo, HiveMapper, un proyecto de mapeo DePIN donde las cámaras de los conductores construyen un mapa; esos mapas podrían entrenar IA de conducción autónoma; los contribuyentes ganan tokens). También vemos proyectos cripto enfocados en IA como Bittensor (TAO) —una red para entrenar modelos de IA de manera descentralizada— alcanzando valoraciones multimillonarias, lo que indica un fuerte apetito de los inversores por las combinaciones de IA+cripto.

  • Agentes Autónomos y Economía Máquina a Máquina: Una tendencia fascinante en el horizonte son los agentes de IA que utilizan servicios DePIN de forma autónoma. Messari especuló que para 2025, las redes de agentes de IA (como bots autónomos) podrían adquirir directamente computación y almacenamiento descentralizados de los protocolos DePIN para realizar tareas para humanos o para otras máquinas. En tal escenario, un agente de IA (digamos, parte de una red descentralizada de servicios de IA) podría alquilar automáticamente GPUs de Render o io.net cuando necesite más computación, pagar con cripto, almacenar sus resultados en Filecoin y comunicarse a través de Helium, todo sin intervención humana, negociando y transaccionando a través de contratos inteligentes. Esta economía de máquina a máquina podría desbloquear una nueva ola de demanda que es nativamente adecuada para DePIN (ya que los agentes de IA no tienen tarjetas de crédito pero pueden usar tokens para pagarse entre sí). Todavía es temprano, pero prototipos como Fetch.ai y otros apuntan en esta dirección. Si se materializa, las redes DePIN verían una afluencia directa de uso impulsado por máquinas, validando aún más sus modelos.

  • Energía y Otros Verticales Físicos: Si bien nuestro enfoque ha sido la conectividad, el almacenamiento y la computación, la tendencia de la IA también toca otras áreas de DePIN. Por ejemplo, las redes de energía descentralizadas (a veces llamadas DeGEN – redes de energía descentralizadas) podrían beneficiarse a medida que la IA optimiza la distribución de energía: si alguien comparte el exceso de energía solar en una microrred a cambio de tokens, la IA podría predecir y enrutar esa energía de manera eficiente. Un proyecto citado en el informe de Binance describe tokens por contribuir con el exceso de energía solar a una red. Los algoritmos de IA que gestionan tales redes podrían, a su vez, ejecutarse en computación descentralizada. Del mismo modo, la IA puede mejorar el rendimiento de las redes descentralizadas, por ejemplo, la optimización basada en IA de la cobertura de radio de Helium o las operaciones de IA para el mantenimiento predictivo de los nodos de almacenamiento de Filecoin. Esto se trata más de usar la IA dentro de DePIN, pero demuestra la polinización cruzada de tecnologías.

En esencia, la IA se ha convertido en un viento de cola para DePIN. Las narrativas previamente separadas de "blockchain se encuentra con el mundo real" y "la revolución de la IA" están convergiendo en una narrativa compartida: la descentralización puede ayudar a satisfacer las demandas de infraestructura de la IA, y la IA puede, a su vez, impulsar un uso masivo en el mundo real para las redes descentralizadas. Esta convergencia está atrayendo un capital significativo: más de $350M se invirtieron en startups de DePIN solo en 2024, gran parte de ello dirigido a infraestructura relacionada con la IA (por ejemplo, muchas recaudaciones de fondos recientes fueron para proyectos de GPU descentralizadas, computación de borde para IA, etc.). También está fomentando la colaboración entre proyectos (Filecoin trabajando con Helium, Akash integrándose con otros proveedores de herramientas de IA, etc.).

Conclusión

Los proyectos DePIN como Helium, Filecoin, Render y Akash representan una apuesta audaz de que los incentivos cripto pueden impulsar la infraestructura del mundo real más rápido y de manera más equitativa que los modelos tradicionales. Cada uno ha elaborado un modelo económico único: Helium utiliza quemas de tokens y prueba de cobertura para obtener redes inalámbricas de forma colaborativa, Filecoin utiliza la criptoeconomía para crear un mercado de almacenamiento de datos descentralizado, Render y Akash convierten GPUs y servidores en recursos compartidos globales a través de pagos y recompensas tokenizadas. Al principio, estos modelos mostraron tensiones —rápido crecimiento de la oferta con una demanda rezagada— pero han demostrado la capacidad de ajustarse y mejorar la eficiencia con el tiempo. El volante de inercia de los incentivos de tokens, aunque no es una bala de plata, ha demostrado ser capaz de ensamblar redes físicas impresionantes: una red global de IoT/5G, una red de almacenamiento a escala de exabytes y nubes de GPU distribuidas. Ahora, a medida que el uso real se pone al día (desde dispositivos IoT hasta laboratorios de IA), estas redes están transitando hacia economías de servicios sostenibles donde los tokens se ganan entregando valor, no solo por ser los primeros.

El auge de la IA ha sobrealimentado esta transición. El apetito insaciable de la IA por la computación y los datos juega a favor de las fortalezas de DePIN: se pueden aprovechar recursos sin explotar, poner a trabajar hardware inactivo y los participantes de todo el mundo pueden compartir las recompensas. La alineación de la demanda impulsada por la IA con la oferta de DePIN en 2024 ha sido un momento crucial, proporcionando posiblemente el "ajuste producto-mercado" que algunos de estos proyectos estaban esperando. Las tendencias sugieren que la infraestructura descentralizada continuará montando la ola de la IA, ya sea alojando modelos de IA, recopilando datos de entrenamiento o permitiendo economías de agentes autónomos. En el proceso, el valor de los tokens que sustentan estas redes puede reflejar cada vez más el uso real (por ejemplo, horas de GPU vendidas, TB almacenados, dispositivos conectados) en lugar de solo la especulación.

Dicho esto, persisten los desafíos. Los proyectos DePIN deben continuar mejorando la conversión de la inversión en utilidad, asegurando que agregar un hotspot más o una GPU más realmente agregue un valor proporcional a los usuarios. También enfrentan la competencia de los proveedores tradicionales (que no se quedan quietos; por ejemplo, los gigantes de la nube están bajando los precios para cargas de trabajo de IA comprometidas) y deben superar problemas como los obstáculos regulatorios (el 5G de Helium necesita cumplimiento del espectro, etc.), la fricción en la experiencia del usuario con las criptomonedas y la necesidad de un rendimiento fiable a escala. Los modelos de tokens también requieren una calibración continua: por ejemplo, la división de Helium en sub-tokens fue uno de esos ajustes; el BME de Render fue otro; otros pueden implementar quemas de tarifas, recompensas dinámicas o incluso ajustes de gobernanza de DAO para mantenerse equilibrados.

Desde una perspectiva de innovación e inversión, DePIN es una de las áreas más emocionantes de Web3 porque vincula las criptomonedas directamente con servicios tangibles. Los inversores están observando métricas como los ingresos del protocolo, las tasas de utilización y la captura de valor del token (ratios P/V) para discernir a los ganadores. Por ejemplo, si el token de una red tiene una alta capitalización de mercado pero un uso muy bajo (alto P/V), podría estar sobrevalorado a menos que se espere un aumento en la demanda. Por el contrario, una red que logra aumentar drásticamente los ingresos (como el salto del 749% en el gasto diario de Akash) podría ver su token revalorizado fundamentalmente. Las plataformas de análisis (Messari, Token Terminal) ahora rastrean dichos datos: por ejemplo, los ingresos anualizados de Helium ($3.5M) frente a los incentivos ($47M) arrojaron un gran déficit, mientras que un proyecto como Render podría mostrar una proporción más cercana si las quemas comienzan a cancelar las emisiones. Con el tiempo, esperamos que el mercado recompense a aquellos tokens DePIN que demuestren flujos de caja reales o ahorros de costos para los usuarios, una maduración del sector desde la publicidad hasta los fundamentos.

En conclusión, redes establecidas como Helium y Filecoin han demostrado el poder y los peligros de la infraestructura tokenizada, y redes emergentes como Render, Akash e io.net están llevando el modelo al ámbito de alta demanda de la computación de IA. La economía detrás de cada red difiere en su mecánica pero comparte un objetivo común: crear un ciclo autosostenible donde los tokens incentivan la construcción de servicios, y la utilización de esos servicios, a su vez, respalda el valor del token. Lograr este equilibrio es complejo, pero el progreso hasta ahora —millones de dispositivos, exabytes de datos y miles de GPUs ahora en línea en redes descentralizadas— sugiere que el experimento DePIN está dando sus frutos. A medida que la IA y Web3 continúan convergiendo, los próximos años podrían ver a las redes de infraestructura descentralizada pasar de ser alternativas de nicho a pilares vitales del tejido de Internet, entregando utilidad del mundo real impulsada por la criptoeconomía.

Fuentes: Documentación oficial y blogs de proyectos, informes de investigación de Messari y datos de análisis de Token Terminal y otros. Las referencias clave incluyen los resúmenes de Helium y Akash de Messari, las actualizaciones de la Fundación Filecoin, la investigación de Binance sobre DePIN e io.net, y los análisis de CoinGecko/CoinDesk sobre el rendimiento de los tokens en el contexto de la IA. Estos proporcionan la base fáctica para la evaluación anterior, como se cita a lo largo del texto.