Saltar al contenido principal

27 publicaciones etiquetados con "IA"

Aplicaciones de inteligencia artificial y aprendizaje automático

Ver todas las etiquetas

BASS 2025: Trazando el Futuro de las Aplicaciones Blockchain, del Espacio a Wall Street

· 9 min de lectura
Dora Noda
Software Engineer

La Cumbre de Aplicaciones Blockchain de Stanford (BASS) dio inicio a la semana de la Conferencia Ciencia de Blockchain (SBC), reuniendo a innovadores, investigadores y constructores para explorar la vanguardia del ecosistema. Los organizadores Gil, Kung y Stephen dieron la bienvenida a los asistentes, resaltando el enfoque del evento en el emprendimiento y las aplicaciones del mundo real, un espíritu nacido de su estrecha colaboración con SBC. Con el apoyo de organizaciones como Blockchain Builders y el Alumni de Criptografía y Blockchain de Stanford, el día estuvo repleto de inmersiones profundas en blockchains celestiales, el futuro de Ethereum, DeFi institucional y la creciente intersección de IA y cripto.

Dalia Maliki: Construyendo una Raíz Orbital de Confianza con Computadora Espacial

Dalia Maliki, profesora en UC Santa Barbara y asesora de Space Computer, abrió con una mirada a una aplicación verdaderamente fuera de este mundo: construir una plataforma de cómputo segura en órbita.

¿Qué es Space Computer? En pocas palabras, Space Computer es una “raíz orbital de confianza”, que brinda una plataforma para ejecutar cálculos seguros y confidenciales en satélites. La propuesta de valor central radica en las garantías de seguridad únicas del espacio. “Una vez que una caja se lanza de forma segura y se despliega en el espacio, nadie puede venir después y hackearla”, explicó Maliki. “Es puramente, perfectamente a prueba de manipulaciones en este punto”. Este entorno la hace a prueba de fugas, asegura que las comunicaciones no puedan ser interferidas fácilmente y proporciona geolocalización verificable, ofreciendo potentes propiedades de descentralización.

Arquitectura y Casos de Uso El sistema está diseñado con una arquitectura de dos capas:

  • Capa 1 (Celestial): La raíz de confianza autoritativa funciona en una red de satélites en órbita, optimizada para comunicaciones limitadas e intermitentes.
  • Capa 2 (Terrestre): Soluciones de escalado estándar como rollups y canales de estado se ejecutan en la Tierra, anclándose a la Capa 1 celestial para obtener finalización y seguridad.

Los primeros casos de uso incluyen ejecutar validadores de blockchain altamente seguros y un generador de números aleatorios verdadero que captura radiación cósmica. Sin embargo, Maliki enfatizó el potencial de la plataforma para innovaciones imprevistas. “Lo más genial de construir una plataforma es que siempre construyes una plataforma y otras personas vienen y crean casos de uso que ni siquiera soñaste”.

Trazando un paralelismo con el ambicioso Proyecto Corona de los años 50, que dejaba caer cubos de película desde satélites espía para ser atrapados en el aire por aviones, Maliki instó a la audiencia a pensar en grande. “En comparación, lo que trabajamos hoy con la computadora espacial es un lujo, y estamos muy entusiasmados con el futuro”.

Tomasz Stanczak: La Hoja de Ruta de Ethereum – Escalado, Privacidad e IA

Tomasz Stanczak, Director Ejecutivo de la Ethereum Foundation, ofreció una visión integral de la hoja de ruta evolutiva de Ethereum, centrada fuertemente en el escalado, la mejora de la privacidad y la integración con el mundo de la IA.

Enfoque a Corto Plazo: Soporte a L2s La prioridad inmediata para Ethereum es consolidar su papel como la mejor plataforma para que las Layer 2 construyan sobre ella. Los próximos forks, Fusaka y Glumpsterdom, están centrados en este objetivo. “Queremos hacer declaraciones mucho más fuertes de que sí, las L2 innovan, extienden Ethereum y contarán con el compromiso de los constructores de protocolo de que la Layer 1 apoyará a las L2 de la mejor manera posible”, afirmó Stanczak.

Visión a Largo Plazo: Lean Ethereum y Pruebas en Tiempo Real Mirando más adelante, la visión de “Lean Ethereum” apunta a una escalabilidad masiva y al endurecimiento de la seguridad. Un componente clave es la hoja de ruta ZK‑EVM, que persigue pruebas en tiempo real con latencias menores a 10 segundos para el 99 % de los bloques, alcanzables por stakers solos. Esto, combinado con mejoras en la disponibilidad de datos, podría impulsar a las L2 a un teórico “10 millones de TPS”. El plan a largo plazo también incluye un enfoque en criptografía post‑cuántica mediante firmas basadas en hash y ZK‑EVMs.

Privacidad e Intersección con IA La privacidad es otro pilar crítico. La Ethereum Foundation ha creado el equipo Privacy and Scaling Explorations (PSC) para coordinar esfuerzos, apoyar herramientas y explorar integraciones de privacidad a nivel de protocolo. Stanczak ve esto como esencial para la interacción de Ethereum con la IA, habilitando casos de uso como mercados financieros resistentes a la censura, IA que preserva la privacidad y sistemas agentes de código abierto. Subrayó que la cultura de Ethereum de conectar múltiples disciplinas —desde finanzas y arte hasta robótica e IA— es fundamental para navegar los retos y oportunidades de la próxima década.

Sreeram Kannan: El Marco de Confianza para Apps Crypto Ambiciosas con EigenCloud

Sreeram Kannan, fundador de Eigen Labs, desafió a la audiencia a pensar más allá del alcance actual de las aplicaciones crypto, presentando un marco para entender el valor central de crypto e introduciendo EigenCloud como la plataforma para materializar esta visión.

Tesis Central de Crypto: Una Capa de Verificabilidad “Subyacente a todo esto hay una tesis central de que crypto es la capa de confianza o verificabilidad sobre la cual puedes construir aplicaciones muy poderosas”, explicó Kannan. Presentó un marco “TAM vs. Trust”, ilustrando que el mercado total direccionable (TAM) para una aplicación crypto crece exponencialmente a medida que la confianza que subyace aumenta. El mercado de Bitcoin crece al volverse más confiable que las monedas fiat; el mercado de una plataforma de préstamos crece al volverse más creíble su garantía de solvencia del prestatario.

EigenCloud: Liberando la Programabilidad Kannan argumentó que el principal cuello de botella para construir apps más ambiciosas —como un Uber descentralizado o plataformas de IA confiables— no es el rendimiento sino la programabilidad. Para resolverlo, EigenCloud introduce una nueva arquitectura que separa la lógica de la aplicación de la lógica del token.

“Mantengamos la lógica del token on‑chain en Ethereum”, propuso, “pero la lógica de la aplicación se traslada fuera. Ahora puedes escribir tu lógica central en contenedores arbitrarios… ejecutarlos en cualquier dispositivo que elijas, sea CPU o GPU… y luego traer esos resultados de forma verificable de vuelta on‑chain”.

Este enfoque, según él, extiende crypto de una “escala de laptop o servidor a escala de nube”, permitiendo a los desarrolladores crear las aplicaciones verdaderamente disruptivas que se imaginaron en los primeros días de crypto.

Panel: Un Análisis Profundo de la Arquitectura Blockchain

Un panel con Leiyang de MegaETH, Adi de Realo y Solomon de la Solana Foundation exploró los trade‑offs entre arquitecturas monolíticas, modulares y “super modulares”.

  • MegaETH (L2 Modular): Leiyang describió el enfoque de MegaETH de usar un secuenciador centralizado para velocidad extrema mientras delega la seguridad a Ethereum. Este diseño busca ofrecer una experiencia en tiempo real al nivel de Web2 para aplicaciones, reviviendo las ambiciosas ideas de la era ICO que antes estaban limitadas por el rendimiento.
  • Solana (L1 Monolítica): Solomon explicó que la arquitectura de Solana, con sus altos requisitos de nodos, está diseñada deliberadamente para el máximo rendimiento y apoyar su visión de poner toda la actividad financiera global on‑chain. El foco actual está en emisión de activos y pagos. Sobre interoperabilidad, Solomon fue franco: “En general, no nos importa mucho la interoperabilidad… Se trata de conseguir la mayor liquidez y uso de activos on‑chain posible”.
  • Realo (L1 “Super Modular”): Adi presentó el concepto “super modular” de Realo, que consolida servicios esenciales como oráculos directamente en la capa base para reducir la fricción del desarrollador. Este diseño busca conectar nativamente la blockchain al mundo real, con un enfoque go‑to‑market en RWAs y haciendo que la blockchain sea invisible para los usuarios finales.

Panel: La Intersección Real de IA y Blockchain

Moderado por Ed Roman de HackVC, este panel mostró tres enfoques distintos para fusionar IA y crypto.

  • Ping AI (Bill): Ping AI está construyendo una “IA personal” donde los usuarios mantienen la auto‑custodia de sus datos. La visión es reemplazar el modelo tradicional de intercambio de anuncios. En lugar de que las empresas moneticen los datos de los usuarios, el sistema de Ping AI recompensará directamente a los usuarios cuando sus datos generen una conversión, permitiéndoles capturar el valor económico de su huella digital.
  • Public AI (Jordan): Descrita como la “capa humana de la IA”, Public AI es un marketplace para obtener datos de alta calidad bajo demanda que no pueden ser raspados ni generados sintéticamente. Utiliza un sistema de reputación on‑chain y mecanismos de staking para asegurar que los contribuyentes aporten señal, no ruido, recompensándolos por su trabajo en la construcción de mejores modelos de IA.
  • Gradient (Eric): Gradient está creando un runtime descentralizado para IA, habilitando inferencia y entrenamiento distribuidos en una red de hardware de consumo subutilizado. El objetivo es proporcionar un contrapeso al poder centralizador de las grandes compañías de IA al permitir que una comunidad global entrene y sirva modelos de forma colaborativa, manteniendo la “soberanía inteligente”.

Más Destacados de la Cumbre

  • Orin Katz (Starkware) presentó bloques de construcción para “privacidad on‑chain compliant”, detallando cómo los ZK‑proofs pueden usarse para crear pools de privacidad y tokens privados (ZRC20) que incluyen mecanismos como “claves de visualización” para supervisión regulatoria.
  • Sam Green (Cambrian) ofreció una visión general del panorama “Agentic Finance”, categorizando agentes crypto en trading, provisión de liquidez, préstamos, predicción e información, y resaltó la necesidad de datos rápidos, integrales y verificables para alimentarlos.
  • Max Siegel (Privy) compartió lecciones de la incorporación de más de 75 millones de usuarios, enfatizando la necesidad de encontrarse donde están los usuarios, simplificar experiencias de producto y dejar que las necesidades del producto guíen las decisiones de infraestructura, no al revés.
  • Nil Dalal (Coinbase) introdujo el “Onchain Agentic Commerce Stack” y el estándar abierto X42, un protocolo nativo de crypto diseñado para crear una “web pagable por máquinas” donde agentes de IA puedan transaccionar sin problemas usando stablecoins para datos, APIs y servicios.
  • Gordon Liao & Austin Adams (Circle) revelaron Circle Gateway, una nueva primitiva para crear un balance USDC unificado que está abstractado por cadena. Esto permite despliegues de liquidez casi instantáneos (< 500 ms) en múltiples cadenas, mejorando drásticamente la eficiencia de capital para empresas y solucionadores.

El día concluyó con un mensaje claro: las capas fundacionales de crypto están madurando, y el foco se está desplazando decisivamente hacia la construcción de aplicaciones robustas, amigables para el usuario y económicamente sostenibles que puedan cerrar la brecha entre el mundo on‑chain y la economía global.

El Auge del Capital Autónomo

· 62 min de lectura
Dora Noda
Software Engineer

Los agentes impulsados por IA que controlan sus propias carteras de criptomonedas ya están gestionando miles de millones en activos, tomando decisiones financieras independientes y remodelando cómo fluye el capital a través de sistemas descentralizados. Esta convergencia de inteligencia artificial y tecnología blockchain —lo que los pensadores líderes llaman "capital autónomo"— representa una transformación fundamental en la organización económica, donde el software inteligente puede operar como actores económicos auto-soberanos sin intermediación humana. El mercado de IA de DeFi (DeFAI) alcanzó los mil millones de dólares a principios de 2025, mientras que el mercado más amplio de agentes de IA alcanzó un máximo de 17 mil millones de dólares, lo que demuestra una rápida adopción comercial a pesar de importantes desafíos técnicos, regulatorios y filosóficos. Cinco líderes de opinión clave —Tarun Chitra (Gauntlet), Amjad Masad (Replit), Jordi Alexander (Selini Capital), Alexander Pack (Hack VC) e Irene Wu (Bain Capital Crypto)— están siendo pioneros en diferentes enfoques de este espacio, desde la gestión automatizada de riesgos y la infraestructura de desarrollo hasta los marcos de inversión y la interoperabilidad entre cadenas. Su trabajo está creando la base para un futuro en el que los agentes de IA pueden superar en número a los humanos como principales usuarios de blockchain, gestionando carteras de forma autónoma y coordinándose en redes descentralizadas, aunque esta visión se enfrenta a preguntas críticas sobre la rendición de cuentas, la seguridad y si la infraestructura sin confianza puede soportar la toma de decisiones de IA digna de confianza.

Qué significa el capital autónomo y por qué es importante ahora

El capital autónomo se refiere al capital (activos financieros, recursos, poder de toma de decisiones) controlado y desplegado por agentes de IA autónomos que operan en la infraestructura blockchain. A diferencia del trading algorítmico tradicional o los sistemas automatizados que requieren supervisión humana, estos agentes poseen sus propias carteras de criptomonedas con claves privadas, toman decisiones estratégicas independientes y participan en protocolos de finanzas descentralizadas sin intervención humana continua. La tecnología converge tres innovaciones críticas: las capacidades de toma de decisiones de la IA, el dinero programable y la ejecución sin confianza de las criptomonedas, y la capacidad de los contratos inteligentes para hacer cumplir acuerdos sin intermediarios.

La tecnología ya ha llegado. A octubre de 2025, más de 17.000 agentes de IA operan solo en Virtuals Protocol, con agentes notables como AIXBT que alcanzan valoraciones de 500 millones de dólares y Truth Terminal que dio origen a la memecoin $GOAT que alcanzó brevemente los mil millones de dólares. La plataforma de gestión de riesgos de Gauntlet analiza más de 400 millones de puntos de datos diariamente en protocolos DeFi que gestionan miles de millones en valor total bloqueado. El Agente 3 de Replit permite más de 200 minutos de desarrollo de software autónomo, mientras que las carteras gestionadas por IA de SingularityDAO entregaron un ROI del 25% en dos meses a través de estrategias adaptativas de creación de mercado.

Por qué esto importa: Las finanzas tradicionales excluyen los sistemas de IA, independientemente de su sofisticación; los bancos requieren identidad humana y verificaciones KYC. Las carteras de criptomonedas, por el contrario, se generan a través de pares de claves criptográficas accesibles a cualquier agente de software. Esto crea la primera infraestructura financiera donde la IA puede operar como actores económicos independientes, abriendo posibilidades para economías de máquina a máquina, gestión autónoma de tesorería y asignación de capital coordinada por IA a escalas y velocidades imposibles para los humanos. Sin embargo, también plantea preguntas profundas sobre quién es responsable cuando los agentes autónomos causan daño, si la gobernanza descentralizada puede gestionar los riesgos de la IA y si la tecnología concentrará o democratizará el poder económico.

Los líderes de opinión que dan forma al capital autónomo

Tarun Chitra: De la simulación a la gobernanza automatizada

Tarun Chitra, CEO y cofundador de Gauntlet (valorado en mil millones de dólares), fue pionero en la aplicación de la simulación basada en agentes, proveniente del trading algorítmico y los vehículos autónomos, a los protocolos DeFi. Su visión de "gobernanza automatizada" utiliza simulaciones impulsadas por IA para permitir que los protocolos tomen decisiones científicamente en lugar de solo a través de la votación subjetiva. En su artículo histórico de 2020 "Automated Governance: DeFi's Scientific Evolution", Chitra articuló cómo la simulación adversaria continua podría crear "un ecosistema DeFi más seguro y eficiente que sea resistente a los ataques y recompense a los participantes honestos de manera justa".

La implementación técnica de Gauntlet demuestra el concepto a escala. La plataforma ejecuta miles de simulaciones diarias contra código de contrato inteligente real, modela agentes que maximizan el beneficio interactuando dentro de las reglas del protocolo y proporciona recomendaciones de parámetros basadas en datos para más de mil millones de dólares en activos de protocolo. Su marco implica codificar reglas de protocolo, definir pagos de agentes, simular interacciones de agentes y optimizar parámetros para equilibrar la salud macroscópica del protocolo con los incentivos microscópicos del usuario. Esta metodología ha influido en los principales protocolos DeFi, incluidos Aave (compromiso de 4 años), Compound, Uniswap y Morpho, con Gauntlet publicando 27 trabajos de investigación sobre creadores de mercado de función constante, análisis de MEV, mecanismos de liquidación y economía de protocolos.

La fundación de Aera protocol por Chitra en 2023 avanzó la gestión autónoma de tesorería, permitiendo a las DAOs responder rápidamente a los cambios del mercado a través de la "gestión de carteras de inversión de origen colectivo". Su enfoque reciente en los agentes de IA refleja las predicciones de que "dominarán la actividad financiera en cadena" y que "la IA cambiará el curso de la historia en cripto" para 2025. Desde sus apariciones en Token2049 en Londres (2021), Singapur (2024, 2025) y su habitual presentación de podcasts en The Chopping Block, Chitra enfatiza constantemente el paso de la gobernanza humana subjetiva a la toma de decisiones basada en datos y probada por simulación.

Idea clave: "Las finanzas en sí mismas son fundamentalmente una práctica legal, es dinero más ley. Las finanzas se vuelven más elegantes con los contratos inteligentes". Su trabajo demuestra que el capital autónomo no se trata de reemplazar a los humanos por completo, sino de usar la IA para hacer que los sistemas financieros sean más rigurosos científicamente a través de la simulación y optimización continuas.

Amjad Masad: Construyendo infraestructura para la economía de red

Amjad Masad, CEO de Replit (valorado en 3 mil millones de dólares a octubre de 2025), vislumbra una transformación económica radical donde los agentes de IA autónomos con carteras de criptomonedas reemplazan el desarrollo de software jerárquico tradicional con economías de red descentralizadas. Su hilo viral de Twitter de 2022 predijo "cambios monumentales que llegarán al software esta década", argumentando que la IA representa el próximo aumento de productividad de 100x que permite a los programadores "comandar ejércitos" de agentes de IA, mientras que los no programadores también podrían comandar agentes para tareas de software.

La visión de la economía de red se centra en los agentes autónomos como actores económicos. En su entrevista de podcast con Sequoia Capital, Masad describió un futuro en el que "agentes de software y yo voy a decir: 'Bueno, necesito crear este producto'. Y el agente va a decir: 'Oh. Bueno, voy a buscar esta base de datos de esta área, esta cosa que envía SMS o correo electrónico de esta área. Y, por cierto, costarán tanto'. Y como agente, en realidad tengo una cartera, podré pagar por ellos". Esto reemplaza el modelo de tubería de fábrica con una composición basada en red donde los agentes ensamblan servicios de forma autónoma y el valor fluye automáticamente a través de la red.

El Agente 3 de Replit, lanzado en septiembre de 2025, demuestra esta visión técnicamente con 10 veces más autonomía que sus predecesores, operando durante más de 200 minutos de forma independiente, autoevaluándose y depurándose a través de "bucles de reflexión", y construyendo otros agentes y automatizaciones. Los usuarios reales informan haber construido sistemas ERP de 400 dólares frente a presupuestos de proveedores de 150.000 dólares y aumentos de productividad del 85%. Masad predice que el "valor de todo el software de aplicación eventualmente 'irá a cero'" a medida que la IA permita a cualquiera generar software complejo bajo demanda, transformando la naturaleza de las empresas de roles especializados a "solucionadores de problemas generalistas" aumentados por agentes de IA.

Sobre el papel de las criptomonedas, Masad aboga firmemente por la integración de la Red Lightning de Bitcoin, viendo el dinero programable como una primitiva de plataforma esencial. Afirmó: "Bitcoin Lightning, por ejemplo, incorpora valor directamente en la cadena de suministro de software y facilita las transacciones tanto de humano a humano como de máquina a máquina. Reducir el costo de transacción y los gastos generales en el software significa que será mucho más fácil incorporar desarrolladores a su base de código para tareas puntuales". Su visión de Web3 como "leer-escribir-poseer-remixar" y los planes para considerar la moneda nativa de Replit como una primitiva de plataforma demuestran una profunda integración entre la infraestructura de agentes de IA y la coordinación cripto-económica.

Masad habló en la Conferencia del Estado de la Red (3 de octubre de 2025) en Singapur inmediatamente después de Token2049, junto a Vitalik Buterin, Brian Armstrong y Balaji Srinivasan, posicionándolo como un puente entre las comunidades cripto y de IA. Su predicción: "Unicornios de una sola persona" se volverán comunes cuando "todos sean desarrolladores" a través del aumento de la IA, cambiando fundamentalmente la macroeconomía y permitiendo el futuro de los "mil millones de desarrolladores" donde mil millones de personas en todo el mundo crean software.

Jordi Alexander: El juicio como moneda en la era de la IA

Jordi Alexander, Fundador/CIO de Selini Capital (más de mil millones de dólares en AUM) y Alquimista Jefe en Mantle Network, aporta su experiencia en teoría de juegos del póker profesional (ganó un brazalete de las WSOP derrotando a Phil Ivey en 2024) al análisis de mercado y la inversión de capital autónomo. Su tesis se centra en "el juicio como moneda", la capacidad únicamente humana de integrar información compleja y tomar decisiones óptimas que las máquinas no pueden replicar, incluso cuando la IA maneja la ejecución y el análisis.

El marco de capital autónomo de Alexander enfatiza la convergencia de "dos industrias clave de este siglo: la construcción de módulos fundacionales inteligentes (como la IA) y la construcción de la capa fundacional para la coordinación social (como la tecnología cripto)". Argumenta que la planificación tradicional de la jubilación es obsoleta debido a la inflación real (~15% anual frente a las tasas oficiales), la próxima redistribución de la riqueza y la necesidad de seguir siendo económicamente productivo: "No existe la jubilación" para los menores de 50 años. Su tesis provocadora: "En los próximos 10 años, la brecha entre tener 100.000 y 10 millones de dólares puede no ser tan significativa. Lo clave es cómo pasar los próximos años" posicionándose eficazmente para el "momento 100x" cuando la creación de riqueza se acelere drásticamente.

Su cartera de inversiones demuestra convicción en la convergencia IA-cripto. Selini respaldó a TrueNorth (semilla de 1 millón de dólares, junio de 2025), descrito como "el primer motor de descubrimiento autónomo impulsado por IA de cripto" que utiliza "flujos de trabajo agénticos" y aprendizaje por refuerzo para la inversión personalizada. El cheque más grande de la firma fue para Worldcoin (mayo de 2024), reconociendo "la obvia necesidad de una infraestructura y soluciones tecnológicas completamente nuevas en el próximo mundo de la IA". Las 46-60 inversiones totales de Selini incluyen Ether.fi (staking líquido), RedStone (oráculos) y creación de mercado en exchanges centralizados y descentralizados, lo que demuestra experiencia en trading sistemático aplicada a sistemas autónomos.

La participación en Token2049 incluye Londres (noviembre de 2022) discutiendo "Reflexiones sobre los experimentos salvajes del último ciclo", Dubái (mayo de 2025) sobre inversión de capital de riesgo líquido y memecoins, y apariciones en Singapur analizando la interacción macro-cripto. Su podcast Steady Lads (más de 92 episodios hasta 2025) contó con Vitalik Buterin discutiendo las intersecciones cripto-IA, el riesgo cuántico y la evolución de Ethereum. Alexander enfatiza escapar del "modo de supervivencia" para acceder a un pensamiento de nivel superior, mejorar constantemente las habilidades y desarrollar el juicio a través de la experiencia como esencial para mantener la relevancia económica cuando proliferen los agentes de IA.

Perspectiva clave: "El juicio es la capacidad de integrar información compleja y tomar decisiones óptimas; aquí es precisamente donde las máquinas se quedan cortas". Su visión ve el capital autónomo como sistemas donde la IA ejecuta a velocidad de máquina mientras los humanos proporcionan juicio estratégico, con las criptomonedas habilitando la capa de coordinación. Sobre Bitcoin específicamente: "el único activo digital con verdadera importancia macro" proyectado para un crecimiento de 5 a 10 veces en cinco años a medida que el capital institucional entra, viéndolo como una protección superior de los derechos de propiedad frente a activos físicos vulnerables.

Alexander Pack: Infraestructura para economías de IA descentralizadas

Alexander Pack, cofundador y socio gerente de Hack VC (que gestiona aproximadamente 590 millones de dólares en AUM), describe la IA de Web3 como "la mayor fuente de alfa en la inversión actual", asignando el 41% del último fondo de la firma a la convergencia IA-cripto, la mayor concentración entre los principales VC de cripto. Su tesis: "La rápida evolución de la IA está creando eficiencias masivas, pero también aumentando la centralización. La intersección de cripto e IA es, con mucho, la mayor oportunidad de inversión en el espacio, ofreciendo una alternativa abierta y descentralizada".

El marco de inversión de Pack trata el capital autónomo como algo que requiere cuatro capas de infraestructura: datos (inversión en Grass — 2.500 millones de dólares de FDV), computación (io.net — 2.200 millones de dólares de FDV), ejecución (Movement Labs — 7.900 millones de dólares de FDV, EigenLayer — 4.900 millones de dólares de FDV) y seguridad (seguridad compartida a través del restaking). La inversión en Grass demuestra la tesis: una red descentralizada de más de 2,5 millones de dispositivos realiza web scraping para datos de entrenamiento de IA, ya recolectando 45 TB diarios (equivalente al conjunto de datos de entrenamiento de ChatGPT 3.5). Pack articuló: "Algoritmos + Datos + Computación = Inteligencia. Esto significa que los Datos y la Computación probablemente se convertirán en dos de los activos más importantes del mundo, y el acceso a ellos será increíblemente importante. Cripto se trata de dar acceso a nuevos recursos digitales en todo el mundo y de convertir en activos cosas que antes no lo eran a través de tokens".

El rendimiento de Hack VC en 2024 valida el enfoque: el segundo VC de cripto líder más activo, desplegando 128 millones de dólares en docenas de acuerdos, con 12 inversiones en cripto x IA que produjeron 4 unicornios solo en 2024. Los principales lanzamientos de tokens incluyen Movement Labs (7.900 millones de dólares), EigenLayer (4.900 millones de dólares), Grass (2.500 millones de dólares), io.net (2.200 millones de dólares), Morpho (2.400 millones de dólares), Kamino (1.000 millones de dólares) y AltLayer (0.900 millones de dólares). La firma opera Hack.Labs, una plataforma interna para la participación en la red de grado institucional, staking, investigación cuantitativa y contribuciones de código abierto, empleando a ex traders senior de Jane Street.

Desde su aparición en el podcast Unchained en marzo de 2024, Pack identificó a los agentes de IA como asignadores de capital que "pueden gestionar carteras de forma autónoma, ejecutar operaciones y optimizar el rendimiento", con la integración de DeFi permitiendo que "los agentes de IA con carteras de criptomonedas participen en los mercados financieros descentralizados". Enfatizó que "todavía estamos muy al principio" en la infraestructura cripto, lo que requiere mejoras significativas en escalabilidad, seguridad y experiencia de usuario antes de la adopción masiva. Token2049 Singapur 2025 confirmó a Pack como orador (1-2 de octubre), participando en paneles de discusión de expertos sobre temas de cripto e IA en el principal evento de cripto de Asia con más de 25.000 asistentes.

El marco de capital autónomo (sintetizado a partir de las inversiones y publicaciones de Hack VC) contempla cinco capas: Inteligencia (modelos de IA), Infraestructura de Datos y Computación (Grass, io.net), Ejecución y Verificación (Movement, EigenLayer), Primitivas Financieras (Morpho, Kamino) y Agentes Autónomos (gestión de carteras, trading, creación de mercado). La idea clave de Pack: los sistemas descentralizados y transparentes demostraron ser más resilientes que las finanzas centralizadas durante los mercados bajistas de 2022 (los protocolos DeFi sobrevivieron mientras Celsius, BlockFi y FTX colapsaron), lo que sugiere que blockchain es más adecuado para la asignación de capital impulsada por IA que las alternativas centralizadas opacas.

Irene Wu: Infraestructura omnicadena para sistemas autónomos

Irene Wu, socia de riesgo en Bain Capital Crypto y ex jefa de estrategia en LayerZero Labs, aporta una experiencia técnica única a la infraestructura de capital autónomo, habiendo acuñado el término "omnicadena" para describir la interoperabilidad entre cadenas a través de la mensajería. Su cartera de inversiones se posiciona estratégicamente en la convergencia IA-cripto: Cursor (editor de código centrado en IA), Chaos Labs (Inteligencia Financiera Artificial), Ostium (plataforma de trading apalancado) y Econia (infraestructura DeFi), lo que demuestra un enfoque en aplicaciones de IA verticalizadas y sistemas financieros autónomos.

Las contribuciones de Wu a LayerZero establecieron una infraestructura fundamental entre cadenas que permite a los agentes autónomos operar sin problemas en diferentes blockchains. Defendió tres principios de diseño fundamentales —Inmutabilidad, Sin Permisos y Resistencia a la Censura— y desarrolló los estándares OFT (Omnichain Fungible Token) y ONFT (Omnichain Non-Fungible Token). La asociación con Magic Eden que lideró creó "Gas Station", lo que permite una conversión fluida de tokens de gas para compras de NFT entre cadenas, demostrando una reducción práctica de la fricción en los sistemas descentralizados. Su posicionamiento de LayerZero como "TCP/IP para blockchains" captura la visión de protocolos de interoperabilidad universal que sustentan las economías de agentes.

El énfasis constante de Wu en eliminar la fricción de las experiencias Web3 apoya directamente la infraestructura de capital autónomo. Aboga por la abstracción de cadenas —los usuarios no deberían necesitar entender qué blockchain están usando— y presiona por "experiencias 10 veces mejores para justificar la complejidad de blockchain". Su crítica a los métodos de investigación de cripto ("ver en Twitter quién se queja más") frente a las entrevistas de investigación de usuarios al estilo Web2 refleja un compromiso con los principios de diseño centrados en el usuario esenciales para la adopción masiva.

Los indicadores de la tesis de inversión de su cartera revelan un enfoque en el desarrollo aumentado por IA (Cursor permite la codificación nativa de IA), la inteligencia financiera autónoma (Chaos Labs aplica la IA a la gestión de riesgos de DeFi), la infraestructura de trading (Ostium proporciona trading apalancado) y las primitivas de DeFi (Econia construye protocolos fundamentales). Este patrón se alinea fuertemente con los requisitos de capital autónomo: los agentes de IA necesitan herramientas de desarrollo, capacidades de inteligencia financiera, infraestructura de ejecución de trading y protocolos DeFi fundamentales para operar eficazmente.

Aunque la participación específica en Token2049 no se confirmó en las fuentes disponibles (acceso a redes sociales restringido), los compromisos de Wu como oradora en Consensus 2023 y Proof of Talk Summit demuestran su liderazgo intelectual en infraestructura blockchain y herramientas para desarrolladores. Su experiencia técnica (Ciencias de la Computación de Harvard, ingeniería de software en J.P. Morgan, cofundadora de Harvard Blockchain Club) combinada con roles estratégicos en LayerZero y Bain Capital Crypto la posiciona como una voz crítica sobre los requisitos de infraestructura para los agentes de IA que operan en entornos descentralizados.

Fundamentos teóricos: Por qué la IA y las criptomonedas permiten el capital autónomo

La convergencia que permite el capital autónomo se basa en tres pilares técnicos que resuelven problemas fundamentales de coordinación. Primero, la criptomoneda proporciona una autonomía financiera imposible en los sistemas bancarios tradicionales. Los agentes de IA pueden generar pares de claves criptográficas para "abrir su propia cuenta bancaria" sin aprobación humana, accediendo a una liquidación global sin permisos las 24 horas del día, los 7 días de la semana, y a dinero programable para operaciones automatizadas complejas. Las finanzas tradicionales excluyen categóricamente a las entidades no humanas, independientemente de su capacidad; las criptomonedas son la primera infraestructura financiera que trata al software como actores económicos legítimos.

Segundo, los sustratos computacionales sin confianza permiten una ejecución autónoma verificable. Los contratos inteligentes de blockchain proporcionan computadoras globales Turing-completas con validación descentralizada que garantiza una ejecución a prueba de manipulaciones donde ningún operador único controla los resultados. Los Entornos de Ejecución Confiables (TEEs) como Intel SGX proporcionan enclaves seguros basados en hardware que aíslan el código de los sistemas host, lo que permite la computación confidencial con protección de clave privada, algo crítico para los agentes, ya que "ni los administradores de la nube ni los operadores de nodos maliciosos pueden 'meter la mano en el frasco'". Las Redes de Infraestructura Física Descentralizadas (DePIN) como io.net y Phala Network combinan TEEs con hardware de origen colectivo para crear computación de IA distribuida y sin permisos.

Tercero, los sistemas de identidad y reputación basados en blockchain otorgan a los agentes personas persistentes. La Identidad Auto-Soberana (SSI) y los Identificadores Descentralizados (DIDs) permiten a los agentes tener sus propios "pasaportes digitales", con credenciales verificables que prueban habilidades y un seguimiento de reputación en cadena que crea registros inmutables. Los protocolos "Conozca a su Agente" (KYA) propuestos adaptan los marcos KYC para identidades de máquinas, mientras que los estándares emergentes como el Protocolo de Contexto de Modelo (MCP), el Protocolo de Comunicación de Agentes (ACP), el Protocolo de Agente a Agente (A2A) y el Protocolo de Red de Agentes (ANP) permiten la interoperabilidad de agentes.

Las implicaciones económicas son profundas. Marcos académicos como el artículo "Virtual Agent Economies" de investigadores como Nenad Tomasev proponen analizar los sistemas económicos emergentes de agentes de IA según sus orígenes (emergentes vs. intencionales) y su separación (permeables vs. impermeables de la economía humana). La trayectoria actual: surgimiento espontáneo de vastas economías de agentes de IA altamente permeables con oportunidades para una coordinación sin precedentes, pero riesgos significativos que incluyen inestabilidad económica sistémica y desigualdad exacerbada. Las consideraciones de la teoría de juegos —equilibrios de Nash en las negociaciones entre agentes, diseño de mecanismos para una asignación justa de recursos, mecanismos de subasta para recursos— se vuelven críticas a medida que los agentes operan como actores económicos racionales con funciones de utilidad, tomando decisiones estratégicas en entornos multiagente.

El mercado demuestra una adopción explosiva. Los tokens de agentes de IA alcanzaron capitalizaciones de mercado de más de 10 mil millones de dólares en diciembre de 2024, aumentando un 322% a finales de 2024. Virtuals Protocol lanzó más de 17.000 agentes de IA tokenizados en Base (Ethereum L2), mientras que ai16z opera un fondo de riesgo autónomo de 2.300 millones de dólares de capitalización de mercado en Solana. Cada agente emite tokens que permiten la propiedad fraccionada, la participación en los ingresos a través del staking y la gobernanza comunitaria, creando mercados líquidos para el rendimiento de los agentes de IA. Este modelo de tokenización permite la "copropiedad" de agentes autónomos, donde los poseedores de tokens obtienen exposición económica a las actividades de los agentes mientras que los agentes obtienen capital para desplegar de forma autónoma.

Filosóficamente, el capital autónomo desafía suposiciones fundamentales sobre la agencia, la propiedad y el control. La agencia tradicional requiere condiciones de control/libertad (sin coerción), condiciones epistémicas (comprensión de las acciones), capacidad de razonamiento moral e identidad personal estable. Los agentes basados en LLM plantean preguntas: ¿Realmente "pretenden" o simplemente coinciden con patrones? ¿Pueden los sistemas probabilísticos ser considerados responsables? Los participantes en la investigación señalan que los agentes "son modelos probabilísticos incapaces de responsabilidad o intención; no pueden ser 'castigados' o 'recompensados' como los jugadores humanos" y "carecen de un cuerpo para experimentar dolor", lo que significa que los mecanismos de disuasión convencionales fallan. Surge la "paradoja de la falta de confianza": desplegar agentes en una infraestructura sin confianza evita confiar en humanos falibles, pero los propios agentes de IA siguen siendo potencialmente poco fiables (alucinaciones, sesgos, manipulación), y los sustratos sin confianza impiden la intervención cuando la IA se comporta mal.

Vitalik Buterin identificó esta tensión, señalando que "el código es ley" (contratos inteligentes deterministas) entra en conflicto con las alucinaciones de los LLM (salidas probabilísticas). Cuatro "invalideces" rigen a los agentes descentralizados según la investigación: invalidez jurisdiccional territorial (la operación sin fronteras anula las leyes de una sola nación), invalidez técnica (la arquitectura resiste el control externo), invalidez de aplicación (no se puede detener a los agentes después de sancionar a los desplegadores) e invalidez de rendición de cuentas (los agentes carecen de personalidad jurídica, no pueden ser demandados ni acusados). Los enfoques experimentales actuales, como el fideicomiso caritativo de Truth Terminal con fideicomisarios humanos, intentan separar la propiedad de la autonomía del agente manteniendo la responsabilidad del desarrollador vinculada al control operativo.

Las predicciones de los principales pensadores convergen en escenarios transformadores. Balaji Srinivasan argumenta que "la IA es abundancia digital, las criptomonedas son escasez digital", fuerzas complementarias donde la IA crea contenido mientras que las criptomonedas coordinan y prueban el valor, con las criptomonedas permitiendo la "prueba de autenticidad humana en un mundo de deepfakes de IA". La observación de Sam Altman de que la IA y las criptomonedas representan "abundancia indefinida y escasez definida" captura su relación simbiótica. Ali Yahya (a16z) sintetiza la tensión: "La IA centraliza, las criptomonedas descentralizan", sugiriendo la necesidad de una gobernanza robusta que gestione los riesgos de los agentes autónomos al tiempo que preserva los beneficios de la descentralización. La visión de a16z de una "entidad autónoma de mil millones de dólares" —un chatbot descentralizado que se ejecuta en nodos sin permisos a través de TEEs, que construye seguidores, genera ingresos, gestiona activos sin control humano— representa el punto final lógico donde no existe un único punto de control y los protocolos de consenso coordinan el sistema.

Arquitectura técnica: Cómo funciona realmente el capital autónomo

La implementación del capital autónomo requiere una sofisticada integración de modelos de IA con protocolos blockchain a través de arquitecturas híbridas que equilibran la potencia computacional con la verificabilidad. El enfoque estándar utiliza una arquitectura de tres capas: capa de percepción que recopila datos de blockchain y externos a través de redes de oráculos (Chainlink maneja más de 5 mil millones de puntos de datos diariamente), capa de razonamiento que realiza inferencia de modelos de IA fuera de cadena con pruebas de conocimiento cero de computación, y capa de acción que ejecuta transacciones en cadena a través de contratos inteligentes. Este diseño híbrido aborda las limitaciones fundamentales de blockchain —los límites de gas que impiden la computación pesada de IA en cadena— mientras mantiene las garantías de ejecución sin confianza.

La implementación de Gauntlet demuestra un capital autónomo listo para la producción a escala. La arquitectura técnica de la plataforma incluye motores de simulación criptoeconómica que ejecutan miles de modelos basados en agentes diariamente contra código de contrato inteligente real, modelado de riesgo cuantitativo utilizando modelos de ML entrenados con más de 400 millones de puntos de datos actualizados 6 veces al día en más de 12 blockchains de Capa 1 y Capa 2, y optimización automatizada de parámetros que ajusta dinámicamente las relaciones de garantía, las tasas de interés, los umbrales de liquidación y las estructuras de tarifas. Su sistema de bóvedas MetaMorpho en Morpho Blue proporciona una infraestructura elegante para la creación de bóvedas sin permisos con gestión de riesgos externalizada, lo que permite que las bóvedas WETH Prime y USDC Prime de Gauntlet optimicen el rendimiento ajustado al riesgo en los mercados de rendimiento recursivo de staking líquido. Las bóvedas de trading de base combinan activos al contado LST con tasas de financiación perpetuas con un apalancamiento dinámico de hasta 2x cuando las condiciones del mercado crean diferenciales favorables, lo que demuestra estrategias autónomas sofisticadas que gestionan capital real.

El aprendizaje automático de conocimiento cero (zkML) permite la verificación de IA sin confianza. La tecnología prueba la ejecución del modelo de ML sin revelar los pesos del modelo ni los datos de entrada utilizando sistemas de prueba ZK-SNARKs y ZK-STARKs. Modulus Labs comparó los sistemas de prueba en diferentes tamaños de modelo, demostrando que los modelos con hasta 18 millones de parámetros son probables en aproximadamente 50 segundos utilizando plonky2. EZKL proporciona marcos de código abierto que convierten modelos ONNX en circuitos ZK, utilizados por OpenGradient para la inferencia de ML descentralizada. RiscZero ofrece máquinas virtuales de conocimiento cero de propósito general que permiten la computación de ML verificable integrada con protocolos DeFi. El flujo de la arquitectura: datos de entrada → modelo de ML (fuera de cadena) → salida → generador de prueba ZK → prueba → verificador de contrato inteligente → aceptar/rechazar. Los casos de uso incluyen estrategias de rendimiento verificables (colaboración Giza + Yearn), puntuación crediticia en cadena, inferencia de modelo privada en datos sensibles y prueba de autenticidad del modelo.

Las estructuras de contratos inteligentes que permiten el capital autónomo incluyen el sistema de despliegue de bóvedas sin permisos de Morpho con parámetros de riesgo personalizables, el protocolo V3 de Aera para reglas de bóveda programables y la integración con oráculos de Pyth Network que proporcionan feeds de precios en menos de un segundo. La implementación técnica utiliza interfaces Web3 (ethers.js, web3.py) que conectan agentes de IA a blockchain a través de proveedores de RPC, con firma de transacciones automatizada utilizando carteras de computación multipartita (MPC) criptográficamente seguras que dividen las claves privadas entre los participantes. La abstracción de cuentas (ERC-4337) permite una lógica de cuenta programable, lo que permite sistemas de permisos sofisticados donde los agentes de IA pueden ejecutar acciones específicas sin control total de la cartera.

El marco uAgents de Fetch.ai demuestra el desarrollo práctico de agentes con bibliotecas de Python que permiten agentes económicos autónomos registrados en contratos inteligentes de Almanac. Los agentes operan con mensajes criptográficamente seguros, registro automatizado de blockchain y ejecución basada en intervalos que maneja el análisis de mercado, la generación de señales y la ejecución de operaciones. Las implementaciones de ejemplo muestran agentes de análisis de mercado que obtienen precios de oráculos, realizan inferencia de modelos de ML y ejecutan operaciones en cadena cuando se cumplen los umbrales de confianza, con comunicación entre agentes que permite la coordinación multiagente para estrategias complejas.

Las consideraciones de seguridad son críticas. Las vulnerabilidades de los contratos inteligentes, incluidos los ataques de reentrada, el desbordamiento/subdesbordamiento aritmético, los problemas de control de acceso y la manipulación de oráculos, han causado pérdidas de más de 11.740 millones de dólares desde 2017, con 1.500 millones de dólares perdidos solo en 2024. Las amenazas específicas de los agentes de IA incluyen la inyección de prompt (entradas maliciosas que manipulan el comportamiento del agente), la manipulación de oráculos (feeds de datos comprometidos que engañan las decisiones), la manipulación de contexto (ataques adversarios que explotan entradas externas) y la fuga de credenciales (claves API o claves privadas expuestas). Investigaciones de University College London y University of Sydney demostraron el sistema A1, un agente de IA que descubre y explota de forma autónoma vulnerabilidades de contratos inteligentes con una tasa de éxito del 63% en 36 contratos vulnerables del mundo real, extrayendo hasta 8,59 millones de dólares por exploit con un costo de 0,01 a 3,59 dólares, lo que demuestra que los agentes de IA favorecen la explotación sobre la defensa económicamente.

Las mejores prácticas de seguridad incluyen la verificación formal de contratos inteligentes, pruebas exhaustivas en testnet, auditorías de terceros (Cantina, Trail of Bits), programas de recompensas por errores, monitoreo en tiempo real con disyuntores, bloqueos de tiempo en operaciones críticas, requisitos de multifirma para transacciones grandes, Entornos de Ejecución Confiables (Phala Network), ejecución de código en sandbox con filtrado de llamadas al sistema, restricciones de red y limitación de velocidad. La postura defensiva debe ser rigurosa a nivel paranoico, ya que los atacantes logran rentabilidad con valores de exploit de 6.000 dólares, mientras que los defensores requieren 60.000 dólares para alcanzar el punto de equilibrio, creando una asimetría económica fundamental que favorece los ataques.

Los requisitos de escalabilidad e infraestructura crean cuellos de botella. Los aproximadamente 30 millones de gas por bloque de Ethereum, los tiempos de bloque de 12 a 15 segundos, las altas tarifas durante la congestión y el rendimiento de 15 a 30 TPS no pueden soportar la inferencia de modelos de ML directamente. Las soluciones incluyen redes de Capa 2 (rollups de Arbitrum/Optimism que reducen los costos de 10 a 100 veces, Base con soporte nativo de agentes, sidechains de Polygon), computación fuera de cadena con verificación en cadena y arquitecturas híbridas. Los requisitos de infraestructura incluyen nodos RPC (Alchemy, Infura, NOWNodes), redes de oráculos (Chainlink, Pyth, API3), almacenamiento descentralizado (IPFS para pesos de modelos), clústeres de GPU para inferencia de ML y monitoreo 24/7 con baja latencia y alta confiabilidad. Los costos operativos van desde llamadas RPC (0 a 500 dólares o más al mes), computación (100 a 10.000 dólares o más al mes para instancias de GPU), hasta tarifas de gas altamente variables (1 a 1.000 dólares o más por transacción compleja).

Los puntos de referencia de rendimiento actuales muestran que zkML prueba modelos de 18 millones de parámetros en 50 segundos en potentes instancias de AWS, Internet Computer Protocol logra mejoras de más de 10 veces con la optimización Cyclotron para la clasificación de imágenes en cadena, y Bittensor opera más de 80 subredes activas con validadores que evalúan modelos de ML. Los desarrollos futuros incluyen la aceleración de hardware a través de chips ASIC especializados para la generación de pruebas ZK, subredes de GPU en ICP para ML en cadena, mejora de la abstracción de cuentas, protocolos de mensajería entre cadenas (LayerZero, Wormhole) y estándares emergentes como el Protocolo de Contexto de Modelo para la interoperabilidad de agentes. La madurez técnica avanza rápidamente, con sistemas de producción como Gauntlet que demuestran la viabilidad de TVL de mil millones de dólares, aunque persisten limitaciones en torno al tamaño de los modelos de lenguaje grandes, la latencia de zkML y los costos de gas para operaciones frecuentes.

Implementaciones en el mundo real: Lo que realmente funciona hoy

SingularityDAO demuestra el rendimiento de carteras gestionadas por IA con resultados cuantificables. Los DynaSets de la plataforma —cestas de activos gestionadas dinámicamente y reequilibradas automáticamente por IA— lograron un ROI del 25% en dos meses (octubre-noviembre de 2022) a través de la creación de mercado multiestrategia adaptativa, y un ROI del 20% para la evaluación semanal y quincenal de estrategias de carteras de BTC+ETH, con una asignación de fondos ponderada que ofreció mayores rendimientos que la asignación fija. La arquitectura técnica incluye backtesting en 7 días de datos históricos del mercado, estrategias predictivas basadas en el sentimiento de las redes sociales, agentes de trading algorítmico para la provisión de liquidez y gestión activa de carteras, incluyendo planificación, equilibrio y trading de carteras. El Motor de Riesgos evalúa numerosos riesgos para una toma de decisiones óptima, y el Gestor Dinámico de Activos realiza un reequilibrio automatizado basado en IA. Actualmente operan tres DynaSets activos (dynBTC, dynETH, dynDYDX) que gestionan capital en vivo con un rendimiento transparente en cadena.

Virtuals Protocol (capitalización de mercado de 1.800 millones de dólares) lidera la tokenización de agentes de IA con más de 17.000 agentes lanzados en la plataforma a principios de 2025. Cada agente recibe mil millones de tokens acuñados, genera ingresos a través de "tarifas de inferencia" por interacciones de chat y otorga derechos de gobernanza a los poseedores de tokens. Los agentes notables incluyen a Luna (LUNA) con una capitalización de mercado de 69 millones de dólares, una estrella de K-pop virtual y streamer en vivo con 1 millón de seguidores en TikTok que genera ingresos a través del entretenimiento; AIXBT a 0,21 dólares, que proporciona información de mercado impulsada por IA con más de 240.000 seguidores en Twitter y mecanismos de staking; y VaderAI (VADER) a 0,05 dólares, que ofrece herramientas de monetización de IA y gobernanza DAO. El Framework GAME (Generative Autonomous Multimodal Entities) proporciona la base técnica, mientras que el Protocolo de Comercio de Agentes crea estándares abiertos para el comercio de agente a agente con la Bóveda de Contribución Inmutable (ICV) que mantiene registros históricos de contribuciones aprobadas. Las asociaciones con Illuvium integran agentes de IA en ecosistemas de juegos, y las auditorías de seguridad abordaron 7 problemas (3 de gravedad media, 4 de gravedad baja).

ai16z opera como un fondo de riesgo autónomo con una capitalización de mercado de 2.300 millones de dólares en Solana, construyendo el framework ELIZA, la arquitectura modular de código abierto más ampliamente adoptada para agentes de IA con miles de despliegues. La plataforma permite un desarrollo descentralizado y colaborativo con ecosistemas de plugins que impulsan efectos de red: más desarrolladores crean más plugins, atrayendo a más desarrolladores. Un sistema de mercado de confianza aborda la rendición de cuentas de los agentes autónomos, mientras que los planes para una blockchain dedicada específicamente a los agentes de IA demuestran una visión de infraestructura a largo plazo. El fondo opera con una fecha de vencimiento definida (octubre de 2025) y más de 22 millones de dólares bloqueados, lo que demuestra una gestión de capital autónomo con límite de tiempo.

La infraestructura de producción de Gauntlet gestiona más de mil millones de dólares en TVL de protocolos DeFi a través de simulación y optimización continuas. La plataforma monitorea más de 100 protocolos DeFi con evaluación de riesgos en tiempo real, realiza simulaciones basadas en agentes para el comportamiento del protocolo bajo estrés y proporciona ajustes dinámicos de parámetros para relaciones de garantía, umbrales de liquidación, curvas de tasas de interés, estructuras de tarifas y programas de incentivos. Las principales asociaciones de protocolos incluyen Aave (compromiso de 4 años que finalizó en 2024 debido a desacuerdos de gobernanza), Compound (implementación pionera de gobernanza automatizada), Uniswap (optimización de liquidez e incentivos), Morpho (asociación actual de curación de bóvedas) y Seamless Protocol (monitoreo activo de riesgos). El marco de curación de bóvedas incluye análisis de mercado que monitorea las oportunidades de rendimiento emergentes, evaluación de riesgos que evalúa la liquidez y el riesgo de contratos inteligentes, diseño de estrategias que crea asignaciones óptimas, ejecución automatizada a las bóvedas de MetaMorpho y optimización continua a través de reequilibrio en tiempo real. Las métricas de rendimiento demuestran la frecuencia de actualización de la plataforma (6 veces al día), el volumen de datos (más de 400 millones de puntos en más de 12 blockchains) y la sofisticación de la metodología (Valor en Riesgo que captura caídas amplias del mercado, riesgos de correlación rota como la divergencia de LST y las desvinculaciones de stablecoins, y cuantificación del riesgo de cola).

Los bots de trading autónomos muestran resultados mixtos pero en mejora. Los usuarios de Gunbot informan haber comenzado con 496 USD el 26 de febrero y haber crecido a 1.358 USD (+174%) operando en 20 pares en dYdX con ejecución autoalojada que elimina el riesgo de terceros. Los usuarios de Cryptohopper lograron un 35% de rendimiento anual en mercados volátiles a través de trading automatizado basado en la nube 24/7 con optimización de estrategia impulsada por IA y funciones de trading social. Sin embargo, las estadísticas generales revelan que el 75-89% de los clientes de bots pierden fondos y solo el 11-25% obtiene ganancias, lo que destaca los riesgos de la sobreoptimización (ajuste de curvas a datos históricos), la volatilidad del mercado y los eventos de cisne negro, fallos técnicos (fallos de API, problemas de conectividad) y una configuración incorrecta por parte del usuario. Los principales fallos incluyen el exploit de Banana Gun (septiembre de 2024, pérdida de 563 ETH/1,9 millones de dólares a través de una vulnerabilidad de oráculo), el ataque de ingeniería social a los acreedores de Genesis (agosto de 2024, pérdida de 243 millones de dólares) y el incidente de deslizamiento de Dogwifhat (enero de 2024, pérdida de 5,7 millones de dólares en libros de órdenes delgados).

Fetch.ai habilita agentes económicos autónomos con más de 30.000 agentes activos a partir de 2024 utilizando el framework uAgents. Las aplicaciones incluyen la automatización de reservas de transporte, el trading inteligente de energía (comprar electricidad fuera de horas punta, revender el exceso), la optimización de la cadena de suministro a través de negociaciones basadas en agentes y asociaciones con Bosch (casos de uso de movilidad Web3) y Yoti (verificación de identidad para agentes). La plataforma recaudó 40 millones de dólares en 2023, posicionándose dentro del mercado de IA autónoma proyectado para alcanzar los 70.530 millones de dólares para 2030 (CAGR del 42,8%). Las aplicaciones DeFi anunciadas en 2023 incluyen herramientas de trading basadas en agentes para DEXs que eliminan los pools de liquidez en favor del emparejamiento basado en agentes, lo que permite el trading directo peer-to-peer eliminando los riesgos de honeypot y rugpull.

Las implementaciones de DAO con componentes de IA demuestran la evolución de la gobernanza. La IA DAO opera la gestión de DAO basada en EVM de Nexus en la sidechain EVM de XRP con detección de irregularidades en la votación por IA que garantiza una toma de decisiones justa, asistencia de gobernanza donde la IA ayuda en las decisiones mientras los humanos mantienen la supervisión, y un Launchpad de Agentes de IA con redes de nodos MCP descentralizadas que permiten a los agentes gestionar carteras y realizar transacciones en blockchains de Axelar. El framework de Aragon prevé una integración de IA x DAO de seis niveles: bots y asistentes de IA (actual), IA en el borde votando propuestas (a corto plazo), IA en el centro gestionando la tesorería (a medio plazo), conectores de IA creando inteligencia de enjambre entre DAOs (a medio plazo), DAOs gobernando la IA como bien público (a largo plazo), y la IA convirtiéndose en la DAO con propiedad de tesorería en cadena (futuro). La implementación técnica utiliza el sistema de plugins modular Aragon OSx con gestión de permisos que permite a la IA operar por debajo de los umbrales de dólares mientras activa votos por encima, y la capacidad de cambiar las estrategias de trading de IA revocando/otorgando permisos de plugins.

Los datos de mercado confirman una rápida adopción y escala. El mercado de DeFAI alcanzó una capitalización de mercado de aproximadamente mil millones de dólares en enero de 2025, con los mercados de agentes de IA alcanzando un máximo de 17 mil millones de dólares. El valor total bloqueado de DeFi asciende a 52 mil millones de dólares (TVL institucional: 42 mil millones de dólares), mientras que MetaMask atiende a 30 millones de usuarios con 21 millones de usuarios activos mensuales. El gasto en blockchain alcanzó los 19 mil millones de dólares en 2024 con proyecciones de 1.076 mil millones de dólares para 2026. El mercado global de DeFi de 20.480-32.360 millones de dólares (2024-2025) proyecta un crecimiento a 231-441 mil millones de dólares para 2030 y 1.558 mil millones de dólares para 2034, lo que representa un CAGR del 40-54%. Las métricas específicas de la plataforma incluyen Virtuals Protocol con más de 17.000 agentes de IA lanzados, la integración de Fetch.ai Burrito que incorpora a más de 400.000 usuarios, y bots de trading autónomos como SMARD que superan a Bitcoin en más del 200% y a Ethereum en más del 300% en rentabilidad desde principios de 2022.

Las lecciones de los éxitos y fracasos aclaran lo que funciona. Las implementaciones exitosas comparten patrones comunes: los agentes especializados superan a los generalistas (la colaboración multiagente de Griffain es más fiable que una sola IA), la supervisión humana en el bucle resulta crítica para eventos inesperados, los diseños de autocustodia eliminan el riesgo de contraparte, el backtesting exhaustivo en múltiples regímenes de mercado previene la sobreoptimización, y una gestión de riesgos robusta con reglas de dimensionamiento de posiciones y mecanismos de stop-loss previene pérdidas catastróficas. Los fracasos demuestran que la IA de caja negra que carece de transparencia no genera confianza, la autonomía pura actualmente no puede manejar la complejidad del mercado y los eventos de cisne negro, ignorar la seguridad conduce a exploits, y las promesas poco realistas de "rendimientos garantizados" indican esquemas fraudulentos. La tecnología funciona mejor como simbiosis humano-IA donde la IA maneja la velocidad y la ejecución mientras los humanos proporcionan estrategia y juicio.

El ecosistema más amplio: Actores, competencia y desafíos

El ecosistema del capital autónomo se ha expandido rápidamente más allá de los cinco líderes de opinión perfilados para abarcar plataformas importantes, actores institucionales, enfoques filosóficos en competencia y sofisticados desafíos regulatorios. Virtuals Protocol y ai16z representan la división filosófica "Catedral vs. Bazar". Virtuals (capitalización de mercado de 1.800 millones de dólares) adopta un enfoque centralizado y metódico con gobernanza estructurada y mercados profesionales con control de calidad, cofundado por EtherMage y utilizando Bóvedas de Contribución Inmutables para una atribución transparente. ai16z (capitalización de mercado de 2.300 millones de dólares) abraza el desarrollo descentralizado y colaborativo a través del framework ELIZA de código abierto que permite una experimentación rápida, liderado por Shaw (programador autodidacta) que construye una blockchain dedicada para agentes de IA con mercados de confianza para la rendición de cuentas. Esta tensión filosófica —precisión versus innovación, control versus experimentación— refleja debates históricos sobre el desarrollo de software y probablemente persistirá a medida que el ecosistema madure.

Los principales protocolos y proveedores de infraestructura incluyen SingularityNET que opera mercados de IA descentralizados que permiten a los desarrolladores monetizar modelos de IA con toma de decisiones de inversión de origen colectivo (modelo de fondo de cobertura Numerai), Fetch.ai que despliega agentes autónomos para la automatización de transporte y servicios con un acelerador de 10 millones de dólares para startups de agentes de IA, Autonolas que conecta agentes de IA fuera de cadena con protocolos en cadena creando mercados de aplicaciones sin permisos, ChainGPT que desarrolla una Máquina Virtual de IA (AIVM) para Web3 con gestión automatizada de liquidez y ejecución de trading, y Warden Protocol que construye una blockchain de Capa 1 para aplicaciones integradas con IA donde los contratos inteligentes acceden y verifican las salidas de modelos de IA en cadena con asociaciones que incluyen Messari, Venice y Hyperlane.

La adopción institucional se acelera a pesar de la cautela. Galaxy Digital pivota de la minería de criptomonedas a la infraestructura de IA con un fondo de riesgo de 175 millones de dólares y 4.500 millones de dólares en ingresos esperados del acuerdo de 15 años con CoreWeave que proporciona 200 MW de capacidad de centro de datos. Las principales instituciones financieras experimentan con IA agéntica: LAW (Flujos de Trabajo Agénticos Legales) de JPMorgan Chase logra una precisión del 92,9%, BNY implementa codificación autónoma y validación de pagos, mientras que Mastercard, PayPal y Visa persiguen iniciativas de comercio agéntico. Las firmas de investigación y análisis, incluidas Messari, CB Insights (que rastrea más de 1.400 mercados tecnológicos), Deloitte, McKinsey y S&P Global Ratings, proporcionan inteligencia crítica del ecosistema sobre agentes autónomos, la intersección IA-cripto, la adopción empresarial y la evaluación de riesgos.

Las visiones en competencia se manifiestan en múltiples dimensiones. Las variaciones del modelo de negocio incluyen DAOs basadas en tokens con votación comunitaria transparente (MakerDAO, MolochDAO) que enfrentan desafíos de concentración de tokens donde menos del 1% de los poseedores controlan el 90% del poder de voto, DAOs basadas en capital que se asemejan a estructuras corporativas con transparencia blockchain, y modelos híbridos que combinan liquidez de tokens con participaciones de propiedad que equilibran el compromiso comunitario con los retornos de los inversores. Los enfoques de cumplimiento normativo van desde el cumplimiento proactivo que busca claridad de antemano, el arbitraje regulatorio que opera en jurisdicciones con menos regulación, hasta estrategias de esperar y ver que construyen primero y abordan la regulación después. Estas elecciones estratégicas crean fragmentación y dinámicas competitivas a medida que los proyectos optimizan para diferentes restricciones.

El panorama regulatorio se vuelve cada vez más complejo y restrictivo. Los desarrollos en Estados Unidos incluyen el Grupo de Trabajo de Cripto de la SEC liderado por la Comisionada Hester Pierce, la regulación de IA y cripto como prioridad de examen para 2025, el Grupo de Trabajo del Presidente sobre Activos Digitales (revisión de 60 días, recomendaciones de 180 días), David Sacks nombrado Asesor Especial para IA y Cripto, y la rescisión de SAB 121 que facilita los requisitos de custodia para los bancos. Las principales preocupaciones de la SEC incluyen la clasificación de valores bajo la Prueba de Howey, la aplicabilidad de la Ley de Asesores de Inversión a los agentes de IA, la custodia y la responsabilidad fiduciaria, y los requisitos AML/KYC. La Presidenta Interina de la CFTC, Pham, apoya la innovación responsable mientras se centra en los mercados de commodities y derivados. Las regulaciones estatales muestran innovación con Wyoming siendo el primero en reconocer las DAOs como entidades legales (julio de 2021) y New Hampshire considerando legislación sobre DAO, mientras que el DFS de Nueva York emitió una guía de ciberseguridad para riesgos de IA (octubre de 2024).

La regulación MiCA de la Unión Europea crea un marco integral con un cronograma de implementación: junio de 2023 entró en vigor, 30 de junio de 2024 se aplicaron las disposiciones sobre stablecoins, 30 de diciembre de 2024 aplicación completa para los Proveedores de Servicios de Criptoactivos con una transición de 18 meses para los proveedores existentes. Los requisitos clave incluyen whitepapers obligatorios para los emisores de tokens, estructuras de adecuación de capital y gobernanza, cumplimiento de AML/KYC, requisitos de custodia y reserva para stablecoins, trazabilidad de transacciones de la Regla de Viaje y derechos de pasaporte en toda la UE para los proveedores con licencia. Los desafíos actuales incluyen a Francia, Austria e Italia pidiendo una aplicación más estricta (septiembre de 2025), una implementación desigual entre los estados miembros, preocupaciones de arbitraje regulatorio, superposición con las regulaciones de pago PSD2/PSD3 y restricciones a las stablecoins que no cumplen con MiCA. DORA (Ley de Resiliencia Operacional Digital) aplicable a partir del 17 de enero de 2025 añade marcos integrales de resiliencia operativa y medidas obligatorias de ciberseguridad.

La dinámica del mercado demuestra tanto euforia como cautela. La actividad de capital de riesgo de 2024 vio 8 mil millones de dólares invertidos en cripto durante los primeros tres trimestres (plano en comparación con 2023), con el tercer trimestre de 2024 mostrando 2.4 mil millones de dólares en 478 acuerdos (-20% intertrimestral), pero los proyectos de IA x Cripto recibieron 270 millones de dólares en el tercer trimestre (un aumento de 5 veces desde el segundo trimestre). Los agentes autónomos de IA en etapa semilla atrajeron 700 millones de dólares en 2024-2025, con valoraciones pre-money medianas que alcanzaron un récord de 25 millones de dólares y tamaños de acuerdo promedio de 3,5 millones de dólares. El primer trimestre de 2025 vio 80.1 mil millones de dólares recaudados (un aumento del 28% intertrimestral impulsado por el acuerdo de 40 mil millones de dólares de OpenAI), con la IA representando el 74% de la inversión en el sector de TI a pesar de la disminución de los volúmenes de acuerdos. La distribución geográfica muestra a EE. UU. dominando con el 56% del capital y el 44% de los acuerdos, el crecimiento de Asia en Japón (+2%), India (+1%), Corea del Sur (+1%) y China disminuyendo un 33% interanual.

Las valoraciones revelan desconexiones de los fundamentos. Los principales tokens de agentes de IA, incluidos Virtuals Protocol (un aumento del 35.000% interanual a 1.800 millones de dólares), ai16z (un aumento del 176% en una semana a 2.300 millones de dólares), AIXBT (aproximadamente 500 millones de dólares) y los listados de futuros de Binance para Zerebro y Griffain, demuestran un fervor especulativo. La alta volatilidad con caídas repentinas que eliminan 500 millones de dólares en posiciones apalancadas en semanas individuales, los rápidos lanzamientos de tokens a través de plataformas como pump.fun y las "memecoins de agentes de IA" como categoría distinta sugieren características de burbuja. Las preocupaciones tradicionales de los VC se centran en el trading de criptomonedas a aproximadamente 250 veces el precio-ventas frente a los 6,25 veces del Nasdaq y los 3,36 veces del S&P, los asignadores institucionales que siguen siendo cautelosos después de los colapsos de 2022 y la aparición de la "meta de ingresos" que requiere modelos de negocio probados.

Las críticas se agrupan en cinco áreas principales. Las preocupaciones técnicas y de seguridad incluyen vulnerabilidades de la infraestructura de carteras con la mayoría de las plataformas DeFi que requieren aprobaciones manuales creando riesgos catastróficos, fallos algorítmicos como la liquidación de Terra/Luna por 2 mil millones de dólares, bucles de retroalimentación infinitos entre agentes, fallos en cascada de sistemas multiagente, problemas de calidad y sesgo de datos que perpetúan la discriminación, y vulnerabilidades de manipulación a través de datos de entrenamiento envenenados. Los problemas de gobernanza y rendición de cuentas se manifiestan a través de la concentración de tokens que anula la descentralización (menos del 1% controla el 90% del poder de voto), accionistas inactivos que interrumpen la funcionalidad, susceptibilidad a adquisiciones hostiles (Build Finance DAO drenado en 2022), lagunas de responsabilidad por el daño causado por los agentes, desafíos de explicabilidad y "agentes deshonestos" que explotan lagunas de programación.

Las críticas económicas y de mercado se centran en la desconexión de la valoración con el P/V de 250x de las criptomonedas frente a los 6-7x tradicionales, las preocupaciones de burbuja que se asemejan a los ciclos de auge/caída de las ICO, muchos agentes como "chatbots glorificados", la adopción impulsada por la especulación en lugar de la utilidad, la utilidad práctica limitada con la mayoría de los agentes siendo actualmente simples influencers de Twitter, la mala interoperabilidad entre cadenas y los frameworks agénticos fragmentados que impiden la adopción. Los riesgos sistémicos y sociales incluyen la concentración de Big Tech con una fuerte dependencia de Microsoft/OpenAI/servicios en la nube (la interrupción de CrowdStrike en julio de 2024 destacó las interdependencias), el 63% de los modelos de IA que utilizan la nube pública para el entrenamiento reduciendo la competencia, el consumo significativo de energía para el entrenamiento de modelos, 92 millones de empleos desplazados para 2030 a pesar de los 170 millones de nuevos empleos proyectados, y los riesgos de delitos financieros de los desafíos AML/KYC con agentes autónomos que permiten el lavado de dinero automatizado.

La "paradoja de la IA generativa" captura los desafíos de implementación: 79% de adopción empresarial pero 78% reporta no tener un impacto significativo en el resultado final. El MIT informa que el 95% de los pilotos de IA fallan debido a una mala preparación de datos y la falta de bucles de retroalimentación. La integración con sistemas heredados se clasifica como el principal desafío para el 60% de las organizaciones, lo que requiere marcos de seguridad desde el primer día, gestión del cambio y capacitación en alfabetización de IA, y cambios culturales de modelos centrados en el ser humano a modelos colaborativos con IA. Estas barreras prácticas explican por qué el entusiasmo institucional no se ha traducido en los correspondientes retornos financieros, lo que sugiere que el ecosistema permanece en etapas experimentales tempranas a pesar del rápido crecimiento de la capitalización de mercado.

Implicaciones prácticas para las finanzas, la inversión y los negocios

El capital autónomo transforma las finanzas tradicionales a través de ganancias inmediatas de productividad y un reposicionamiento estratégico. Los servicios financieros ven a los agentes de IA ejecutando operaciones un 126% más rápido con optimización de cartera en tiempo real, detección de fraude a través de detección de anomalías en tiempo real y evaluación proactiva de riesgos, el 68% de las interacciones con clientes se espera que sean manejadas por IA para 2028, evaluación crediticia utilizando evaluación continua con datos de transacciones en tiempo real y tendencias de comportamiento, y automatización del cumplimiento realizando evaluaciones dinámicas de riesgos e informes regulatorios. Las métricas de transformación muestran que el 70% de los ejecutivos de servicios financieros anticipan la IA agéntica para experiencias personalizadas, aumentos de ingresos del 3-15% para los implementadores de IA, un aumento del 10-20% en el ROI de ventas, el 90% observa flujos de trabajo más eficientes y el 38% de los empleados informa una creatividad facilitada.

El capital de riesgo experimenta una evolución de tesis desde inversiones puras en infraestructura hasta infraestructura específica de la aplicación, centrándose en la demanda, la distribución y los ingresos en lugar de los tokens previos al lanzamiento. Surgen grandes oportunidades en stablecoins después de la claridad regulatoria, energía x DePIN alimentando la infraestructura de IA y mercados de GPU para recursos computacionales. Los requisitos de diligencia debida se expanden drásticamente: evaluar la arquitectura técnica (autonomía Nivel 1-5), los marcos de gobernanza y ética, la postura de seguridad y los registros de auditoría, la hoja de ruta de cumplimiento normativo, la tokenomics y el análisis de distribución, y la capacidad del equipo para navegar la incertidumbre regulatoria. Los factores de riesgo incluyen el 95% de los pilotos de IA que fallan (informe del MIT), la mala preparación de datos y la falta de bucles de retroalimentación como causas principales, la dependencia del proveedor para las empresas sin experiencia interna y los múltiplos de valoración desconectados de los fundamentos.

Los modelos de negocio se multiplican a medida que el capital autónomo permite innovaciones antes imposibles. Los vehículos de inversión autónomos agrupan capital a través de DAOs para el despliegue algorítmico con reparto de beneficios proporcional a las contribuciones (modelo de fondo de cobertura ai16z). La IA como Servicio (AIaaS) vende capacidades de agente tokenizadas como servicios con tarifas de inferencia por interacciones de chat y propiedad fraccionada de agentes de alto valor. La monetización de datos crea mercados de datos descentralizados con tokenización que permite el intercambio seguro utilizando técnicas de preservación de la privacidad como las pruebas de conocimiento cero. La creación de mercado automatizada proporciona provisión y optimización de liquidez con tasas de interés dinámicas basadas en la oferta/demanda y arbitraje entre cadenas. El Cumplimiento como Servicio ofrece verificaciones AML/KYC automatizadas, informes regulatorios en tiempo real y auditoría de contratos inteligentes.

Los riesgos del modelo de negocio incluyen la incertidumbre de la clasificación regulatoria, la responsabilidad de protección al consumidor, las dependencias de la plataforma, los efectos de red que favorecen a los primeros en moverse y los problemas de velocidad de los tokens. Sin embargo, las implementaciones exitosas demuestran viabilidad: Gauntlet gestiona más de mil millones de dólares en TVL a través de la gestión de riesgos basada en simulación, SingularityDAO ofrece un ROI del 25% a través de carteras gestionadas por IA y Virtuals Protocol lanza más de 17.000 agentes con productos de entretenimiento y análisis que generan ingresos.

Las industrias tradicionales experimentan automatización en todos los sectores. La atención médica despliega agentes de IA para diagnósticos (la FDA aprobó 223 dispositivos médicos habilitados para IA en 2023, frente a 6 en 2015), optimización del tratamiento de pacientes y automatización administrativa. El transporte ve a Waymo realizando más de 150.000 viajes autónomos semanalmente y a Baidu Apollo Go sirviendo a varias ciudades chinas con sistemas de conducción autónoma que mejoran un 67,3% interanual. La cadena de suministro y la logística se benefician de la optimización de rutas en tiempo real, la automatización de la gestión de inventario y la coordinación de proveedores. Los servicios legales y profesionales adoptan el procesamiento de documentos y el análisis de contratos, el monitoreo del cumplimiento normativo y la automatización de la diligencia debida.

La transformación de la fuerza laboral crea desplazamiento junto con oportunidades. Si bien 92 millones de empleos se enfrentan al desplazamiento para 2030, las proyecciones muestran que se crearán 170 millones de nuevos empleos que requieren diferentes conjuntos de habilidades. El desafío radica en la transición: los programas de recapacitación, las redes de seguridad y las reformas educativas deben acelerarse para evitar el desempleo masivo y la disrupción social. La evidencia temprana muestra que los empleos de IA en EE. UU. en el primer trimestre de 2025 alcanzaron las 35.445 posiciones (+25,2% interanual) con salarios medianos de 156.998 dólares y las menciones de ofertas de empleo de IA aumentaron un 114,8% (2023) y luego un 120,6% (2024). Sin embargo, este crecimiento se concentra en roles técnicos, dejando sin respuesta preguntas sobre una inclusión económica más amplia.

Los riesgos requieren estrategias integrales de mitigación en cinco categorías. Los riesgos técnicos (vulnerabilidades de contratos inteligentes, fallos de oráculos, errores en cascada) exigen pruebas continuas de equipo rojo, verificación formal, disyuntores, protocolos de seguro como Nexus Mutual y un despliegue gradual con autonomía limitada inicialmente. Los riesgos regulatorios (estatus legal poco claro, aplicación retroactiva, conflictos jurisdiccionales) requieren un compromiso proactivo con los reguladores, divulgación clara y whitepapers, marcos KYC/AML robustos, planificación de entidades legales (Wyoming DAO LLC) y diversificación geográfica. Los riesgos operativos (envenenamiento de datos, deriva del modelo, fallos de integración) necesitan supervisión humana en el bucle para decisiones críticas, monitoreo y recapacitación continuos, integración por fases, sistemas de respaldo y redundancia, y registros completos de agentes que rastreen la propiedad y la exposición.

Los riesgos de mercado (dinámicas de burbuja, crisis de liquidez, concentración de tokens, colapso de la valoración) necesitan un enfoque en la creación de valor fundamental frente a la especulación, una distribución diversificada de tokens, períodos de bloqueo y calendarios de adquisición de derechos, mejores prácticas de gestión de tesorería y comunicación transparente sobre las limitaciones. Los riesgos sistémicos (concentración de Big Tech, fallos de red, contagio financiero) exigen estrategias multi-nube, infraestructura descentralizada (IA de borde, modelos locales), pruebas de estrés y planificación de escenarios, coordinación regulatoria entre jurisdicciones y consorcios de la industria para el desarrollo de estándares.

Los cronogramas de adopción sugieren un optimismo medido a corto plazo, y un potencial transformador a largo plazo. El corto plazo 2025-2027 ve autonomía de Nivel 1-2 con automatización basada en reglas y optimización de flujos de trabajo manteniendo la supervisión humana, el 25% de las empresas que utilizan IA generativa lanzando pilotos agénticos en 2025 (Deloitte) creciendo al 50% para 2027, el mercado de agentes de IA autónomos alcanzando los 6.800 millones de dólares (2024) expandiéndose a más de 20.000 millones de dólares (2027), y el 15% de las decisiones laborales tomadas de forma autónoma para 2028 (Gartner). Las barreras de adopción incluyen casos de uso y ROI poco claros (el 60% lo cita), desafíos de integración de sistemas heredados, preocupaciones de riesgo y cumplimiento, y escasez de talento.

El mediano plazo 2028-2030 trae autonomía de Nivel 3-4 con agentes operando en dominios estrechos sin supervisión continua, sistemas de colaboración multiagente, toma de decisiones adaptativa en tiempo real y creciente confianza en las recomendaciones de los agentes. Las proyecciones de mercado muestran que la IA generativa contribuye con 2,6-4,4 billones de dólares anualmente al PIB global, el mercado de agentes autónomos alcanza los 52.600 millones de dólares para 2030 (CAGR del 45%), 3 horas al día de actividades automatizadas (frente a 1 hora en 2024) y el 68% de las interacciones cliente-proveedor manejadas por IA. Los desarrollos de infraestructura incluyen blockchains específicas para agentes (ai16z), estándares de interoperabilidad entre cadenas, protocolos unificados de almacén de claves para permisos e infraestructura de cartera programable generalizada.

El largo plazo 2030+ vislumbra autonomía de Nivel 5 con agentes totalmente autónomos y mínima intervención humana, sistemas de auto-mejora que se acercan a las capacidades de la IAG, agentes que contratan a otros agentes y humanos, y asignación de capital autónoma a escala. La transformación sistémica presenta a los agentes de IA como compañeros de trabajo en lugar de herramientas, una economía tokenizada con transacciones de agente a agente, un "modelo Hollywood" descentralizado para la coordinación de proyectos y 170 millones de nuevos empleos que requieren nuevas habilidades. Persisten incertidumbres clave: la madurez del marco regulatorio, la confianza y aceptación del público, los avances o limitaciones técnicas en la IA, la gestión de la disrupción económica y los problemas de alineación ética y control.

Los factores críticos de éxito para el desarrollo del ecosistema incluyen la claridad regulatoria que permite la innovación al tiempo que protege a los consumidores, los estándares de interoperabilidad para la comunicación entre cadenas y plataformas, la infraestructura de seguridad como base con pruebas y auditorías robustas, el desarrollo de talento a través de programas de alfabetización de IA y apoyo a la transición de la fuerza laboral, y una economía sostenible que cree valor más allá de la especulación. Los proyectos individuales requieren una utilidad real que resuelva problemas genuinos, una gobernanza sólida con una representación equilibrada de las partes interesadas, excelencia técnica con un diseño que priorice la seguridad, una estrategia regulatoria con cumplimiento proactivo y una alineación comunitaria a través de una comunicación transparente y un valor compartido. La adopción institucional exige pruebas de ROI más allá de las ganancias de eficiencia, marcos integrales de gestión de riesgos, gestión del cambio con transformación cultural y capacitación, una estrategia de proveedores que equilibre la construcción con la compra evitando el bloqueo, y directrices éticas para la autoridad de decisión autónoma.

El ecosistema del capital autónomo representa una genuina innovación tecnológica y financiera con un potencial transformador, pero se enfrenta a importantes desafíos en torno a la seguridad, la gobernanza, la regulación y la utilidad práctica. El mercado experimenta un rápido crecimiento impulsado por la especulación y el desarrollo legítimo en igual medida, lo que requiere una comprensión sofisticada, una navegación cuidadosa y expectativas realistas de todos los participantes a medida que este campo emergente madura hacia la adopción masiva.

Conclusión: La trayectoria del capital autónomo

La revolución del capital autónomo no es una utopía inevitable ni una certeza distópica, sino más bien un campo emergente donde la innovación tecnológica genuina se cruza con riesgos significativos, lo que requiere una comprensión matizada de las capacidades, limitaciones y desafíos de gobernanza. Los cinco líderes de opinión clave perfilados aquí —Tarun Chitra, Amjad Masad, Jordi Alexander, Alexander Pack e Irene Wu— demuestran enfoques distintos pero complementarios para construir este futuro: la gobernanza automatizada de Chitra a través de la simulación y la gestión de riesgos, las economías de red impulsadas por agentes y la infraestructura de desarrollo de Masad, la tesis de inversión informada por la teoría de juegos de Alexander que enfatiza el juicio humano, la estrategia de capital de riesgo centrada en la infraestructura de Pack y los fundamentos de interoperabilidad omnicadena de Wu.

Su trabajo colectivo establece que el capital autónomo es técnicamente factible hoy, demostrado por Gauntlet gestionando más de mil millones de dólares en TVL, el ROI del 25% de SingularityDAO a través de carteras de IA, los más de 17.000 agentes lanzados por Virtuals Protocol y los sistemas de trading de producción que ofrecen resultados verificados. Sin embargo, la "paradoja de la falta de confianza" identificada por los investigadores sigue sin resolverse: desplegar IA en una infraestructura blockchain sin confianza evita confiar en humanos falibles, pero crea sistemas de IA potencialmente poco fiables que operan más allá de la intervención. Esta tensión fundamental entre autonomía y rendición de cuentas definirá si el capital autónomo se convierte en una herramienta para el florecimiento humano o en una fuerza ingobernable.

La perspectiva a corto plazo (2025-2027) sugiere una experimentación cautelosa con el 25-50% de los usuarios de IA generativa lanzando pilotos agénticos, autonomía de Nivel 1-2 manteniendo la supervisión humana, crecimiento del mercado de 6.800 millones a más de 20.000 millones de dólares, pero persistentes barreras de adopción en torno a un ROI poco claro, desafíos de integración de sistemas heredados e incertidumbre regulatoria. El mediano plazo (2028-2030) podría ver autonomía de Nivel 3-4 operando en dominios estrechos, sistemas multiagente coordinándose de forma autónoma y la IA generativa contribuyendo con 2,6-4,4 billones de dólares al PIB global si los desafíos técnicos y de gobernanza se resuelven con éxito. Las visiones a largo plazo (2030+) de autonomía de Nivel 5 con sistemas totalmente auto-mejorables que gestionan capital a escala siguen siendo especulativas, supeditadas a avances en las capacidades de la IA, marcos regulatorios, infraestructura de seguridad y la capacidad de la sociedad para gestionar las transiciones de la fuerza laboral.

Preguntas abiertas críticas determinan los resultados: ¿La claridad regulatoria permitirá o restringirá la innovación? ¿Podrá la infraestructura de seguridad madurar lo suficientemente rápido como para prevenir fallos catastróficos? ¿Se materializarán los objetivos de descentralización o aumentará la concentración de Big Tech? ¿Pueden surgir modelos de negocio sostenibles más allá de la especulación? ¿Cómo gestionará la sociedad 92 millones de empleos desplazados incluso cuando surjan 170 millones de nuevas posiciones? Estas preguntas carecen de respuestas definitivas hoy, lo que hace que el ecosistema del capital autónomo sea de alto riesgo y alta oportunidad simultáneamente.

Las perspectivas de los cinco líderes de opinión convergen en principios clave: la simbiosis humano-IA supera a la autonomía pura, con la IA manejando la velocidad de ejecución y el análisis de datos mientras los humanos proporcionan juicio estratégico y alineación de valores; la seguridad y la gestión de riesgos requieren un rigor a nivel paranoico, ya que los atacantes tienen ventajas económicas fundamentales sobre los defensores; la interoperabilidad y la estandarización determinarán qué plataformas logran efectos de red y dominio a largo plazo; el compromiso regulatorio debe ser proactivo en lugar de reactivo a medida que los marcos legales evolucionan globalmente; y el enfoque en la creación de valor fundamental en lugar de la especulación separa los proyectos sostenibles de las víctimas de la burbuja.

Para los participantes de todo el ecosistema, las recomendaciones estratégicas difieren según el rol. Los inversores deben diversificar la exposición en las capas de plataforma, aplicación e infraestructura, centrándose en modelos generadores de ingresos y la postura regulatoria, planificando la volatilidad extrema y dimensionando las posiciones en consecuencia. Los desarrolladores deben elegir filosofías arquitectónicas (Catedral versus Bazar), invertir fuertemente en auditorías de seguridad y verificación formal, construir para la interoperabilidad entre cadenas, involucrar a los reguladores temprano y resolver problemas reales en lugar de crear "chatbots glorificados". Las empresas deben comenzar con pilotos de bajo riesgo en servicio al cliente y análisis, invertir en infraestructura y datos listos para agentes, establecer una gobernanza clara para la autoridad de decisión autónoma, capacitar a la fuerza laboral en alfabetización de IA y equilibrar la innovación con el control.

Los formuladores de políticas se enfrentan quizás al desafío más complejo: armonizar la regulación internacionalmente mientras se permite la innovación, utilizando enfoques de sandbox y puertos seguros para la experimentación, protegiendo a los consumidores a través de divulgaciones obligatorias y prevención del fraude, abordando los riesgos sistémicos de la concentración de Big Tech y las dependencias de la red, y preparando a la fuerza laboral a través de programas educativos y apoyo a la transición para los trabajadores desplazados. La regulación MiCA de la UE proporciona un modelo que equilibra la innovación con la protección, aunque persisten los desafíos de aplicación y las preocupaciones de arbitraje jurisdiccional.

La evaluación más realista sugiere que el capital autónomo evolucionará gradualmente en lugar de revolucionariamente de la noche a la mañana, con éxitos en dominios estrechos (trading, servicio al cliente, análisis) precediendo a la autonomía de propósito general, sistemas híbridos humano-IA superando a la automatización pura en el futuro previsible, y marcos regulatorios que tardarán años en cristalizarse creando una incertidumbre continua. Las sacudidas y los fracasos del mercado son inevitables dadas las dinámicas especulativas, las limitaciones tecnológicas y las vulnerabilidades de seguridad, sin embargo, las tendencias tecnológicas subyacentes —mejoras en la capacidad de la IA, maduración de blockchain y adopción institucional de ambos— apuntan hacia un crecimiento y una sofisticación continuos.

El capital autónomo representa un cambio de paradigma tecnológico legítimo con potencial para democratizar el acceso a herramientas financieras sofisticadas, aumentar la eficiencia del mercado a través de la optimización autónoma 24/7, habilitar nuevos modelos de negocio imposibles en las finanzas tradicionales y crear economías de máquina a máquina que operan a velocidades sobrehumanas. Sin embargo, también corre el riesgo de concentrar el poder en manos de élites técnicas que controlan la infraestructura crítica, crear inestabilidades sistémicas a través de sistemas autónomos interconectados, desplazar a los trabajadores humanos más rápido de lo que los programas de recapacitación pueden adaptarse y permitir delitos financieros a escala de máquina a través del lavado de dinero y el fraude automatizados.

El resultado depende de las decisiones tomadas hoy por constructores, inversores, formuladores de políticas y usuarios. Los cinco líderes de opinión perfilados demuestran que los enfoques reflexivos y rigurosos que priorizan la seguridad, la transparencia, la supervisión humana y la gobernanza ética pueden crear valor genuino al tiempo que gestionan los riesgos. Su trabajo proporciona planos para un desarrollo responsable: el rigor científico de Chitra a través de la simulación, la infraestructura centrada en el usuario de Masad, la evaluación de riesgos basada en la teoría de juegos de Alexander, la inversión priorizando la infraestructura de Pack y los fundamentos de interoperabilidad de Wu.

Como enfatizó Jordi Alexander: "El juicio es la capacidad de integrar información compleja y tomar decisiones óptimas; aquí es precisamente donde las máquinas se quedan cortas". El futuro del capital autónomo probablemente se definirá no por la autonomía total de la IA, sino por una colaboración sofisticada donde la IA maneja la ejecución, el procesamiento de datos y la optimización, mientras que los humanos proporcionan juicio, estrategia, ética y rendición de cuentas. Esta asociación humano-IA, habilitada por la infraestructura sin confianza y el dinero programable de las criptomonedas, representa el camino más prometedor, equilibrando la innovación con la responsabilidad, la eficiencia con la seguridad y la autonomía con la alineación con los valores humanos.

Sui Blockchain: Ingeniando el Futuro de la IA, la Robótica y la Computación Cuántica

· 30 min de lectura
Dora Noda
Software Engineer

Sui blockchain ha emergido como la plataforma técnicamente más avanzada para cargas de trabajo computacionales de próxima generación, logrando 297.000 transacciones por segundo con una finalidad de 480 ms mientras integra criptografía resistente a la cuántica e infraestructura robótica construida a propósito. Liderada por el criptógrafo jefe Kostas Chalkias —quien cuenta con más de 50 publicaciones académicas y fue pionero en innovaciones criptográficas en el proyecto Diem de Meta—, Sui representa una ruptura arquitectónica fundamental con las blockchains heredadas, diseñada específicamente para habilitar agentes de IA autónomos, coordinación multi-robot y seguridad post-cuántica.

A diferencia de los competidores que adaptan blockchain para la computación avanzada, el modelo de datos centrado en objetos de Sui, el lenguaje de programación Move y el protocolo de consenso Mysticeti fueron diseñados desde su concepción para operaciones de IA paralelas, control robótico en tiempo real y agilidad criptográfica —capacidades validadas a través de implementaciones en vivo que incluyen más de 50 proyectos de IA, demostraciones de colaboración multi-robot y la primera ruta de actualización cuánticamente segura y retrocompatible del mundo para carteras de blockchain.

La revolucionaria base técnica de Sui hace posible lo imposible

La arquitectura de Sui rompe con los modelos tradicionales de blockchain basados en cuentas a través de tres innovaciones sinérgicas que la posicionan de manera única para aplicaciones de IA, robótica y cuánticas.

El protocolo de consenso Mysticeti logra un rendimiento sin precedentes a través de una arquitectura DAG no certificada, reduciendo la latencia del consenso a 390-650 ms (80% más rápido que su predecesor) mientras soporta un rendimiento sostenido de más de 200.000 TPS. Esto representa un avance fundamental: las blockchains tradicionales como Ethereum requieren de 12 a 15 segundos para la finalidad, mientras que la vía rápida de Sui para transacciones de un solo propietario se completa en solo 250 ms. Los múltiples líderes por ronda del protocolo y el mecanismo de compromiso implícito permiten bucles de decisión de IA en tiempo real y sistemas de control robótico que requieren retroalimentación en menos de un segundo —aplicaciones físicamente imposibles en cadenas de ejecución secuencial.

El modelo de datos centrado en objetos trata cada activo como un objeto direccionable de forma independiente con propiedad y versionado explícitos, lo que permite un análisis estático de dependencias antes de la ejecución. Esta elección arquitectónica elimina la sobrecarga de detección de conflictos retroactiva que afecta a los modelos de ejecución optimista, permitiendo que miles de agentes de IA realicen transacciones simultáneamente sin contención. Los objetos evitan el consenso por completo cuando son propiedad de una sola parte, ahorrando un 70% del tiempo de procesamiento para operaciones comunes. Para la robótica, esto significa que los robots individuales mantienen objetos propios para los datos de los sensores mientras se coordinan a través de objetos compartidos solo cuando es necesario, reflejando con precisión las arquitecturas de sistemas autónomos del mundo real.

El lenguaje de programación Move proporciona una seguridad orientada a recursos imposible en lenguajes basados en cuentas como Solidity. Los activos existen como tipos de primera clase que no pueden copiarse ni destruirse —solo moverse entre contextos—, lo que previene clases enteras de vulnerabilidades, incluidos ataques de reentrada, doble gasto y manipulación no autorizada de activos. El sistema de tipos lineal de Move y el soporte de verificación formal lo hacen particularmente adecuado para agentes de IA que gestionan activos valiosos de forma autónoma. Los Bloques de Transacciones Programables componen hasta 1.024 llamadas a funciones de forma atómica, lo que permite flujos de trabajo de IA complejos de varios pasos con consistencia garantizada.

Kostas Chalkias diseña la resistencia cuántica como ventaja competitiva

Kostas "Kryptos" Chalkias aporta una experiencia criptográfica inigualable a la estrategia de computación cuántica de Sui, habiendo sido autor del algoritmo Blockchained Post-Quantum Signature (BPQS), liderado la criptografía para la blockchain Diem de Meta y publicado más de 50 artículos revisados por pares citados más de 1.374 veces. Su avance de investigación de julio de 2025 demostró la primera ruta de actualización cuánticamente segura y retrocompatible para carteras de blockchain, aplicable a cadenas basadas en EdDSA, incluidas Sui, Solana, Near y Cosmos.

La visión de Chalkias posiciona la resistencia cuántica no como una preocupación lejana, sino como un diferenciador competitivo inmediato. Advirtió en enero de 2025 que "los gobiernos son muy conscientes de los riesgos que plantea la computación cuántica. Las agencias de todo el mundo han emitido mandatos para que los algoritmos clásicos como ECDSA y RSA sean deprecados para 2030 o 2035." Su visión técnica: incluso si los usuarios conservan las claves privadas, es posible que no puedan generar pruebas de propiedad post-cuánticas sin exponer las claves a ataques cuánticos. La solución de Sui aprovecha las pruebas STARK de conocimiento cero para probar el conocimiento de las semillas de generación de claves sin revelar datos sensibles, una innovación criptográfica imposible en blockchains que carecen de agilidad incorporada.

El marco de agilidad criptográfica representa la filosofía de diseño distintiva de Chalkias. Sui utiliza banderas de 1 byte para distinguir esquemas de firma (Ed25519, ECDSA Secp256k1/r1, BLS12-381, multifirma, zkLogin), lo que permite el soporte a nivel de protocolo para nuevos algoritmos sin la sobrecarga de los contratos inteligentes o las bifurcaciones duras. Esta arquitectura permite transiciones "con solo pulsar un botón" a algoritmos post-cuánticos estandarizados por el NIST, incluidos CRYSTALS-Dilithium (firmas de 2.420 bytes) y FALCON (firmas de 666 bytes) cuando las amenazas cuánticas se materialicen. Chalkias diseñó múltiples rutas de migración: proactiva (las nuevas cuentas generan claves PQ en el momento de la creación), adaptativa (las pruebas STARK permiten la migración PQ desde semillas existentes) e híbrida (multifirma de tiempo limitado que combina claves clásicas y resistentes a la cuántica).

Su innovación zkLogin demuestra la creatividad criptográfica aplicada a la usabilidad. El sistema permite a los usuarios autenticarse a través de credenciales de Google, Facebook o Twitch utilizando pruebas de conocimiento cero Groth16 sobre curvas BN254, con sal controlada por el usuario que evita la correlación de identidad Web2-Web3. Las direcciones zkLogin incluyen consideraciones cuánticas desde el diseño: las pruebas de conocimiento de semillas basadas en STARK proporcionan seguridad post-cuántica incluso cuando las firmas JWT subyacentes pasan de RSA a alternativas basadas en retículos.

En Sui Basecamp 2025, Chalkias presentó aleatoriedad verificable nativa, túneles zk para lógica fuera de la cadena, transacciones relámpago (cero gas, cero latencia) y cápsulas del tiempo para acceso a datos futuros cifrados. Estas características impulsan simulaciones privadas de agentes de IA, aplicaciones de juegos de azar que requieren aleatoriedad confiable y juegos de póker de conocimiento cero, todo imposible sin primitivas criptográficas a nivel de protocolo. Su visión: "Un objetivo para Sui era convertirse en la primera blockchain en adoptar tecnologías post-cuánticas, mejorando así la seguridad y preparándose para futuros estándares regulatorios."

La infraestructura de agentes de IA alcanza la madurez de producción en Sui

Sui alberga el ecosistema de agentes de IA más completo de la industria blockchain con más de 50 proyectos que abarcan infraestructura, frameworks y aplicaciones, todos aprovechando la ejecución paralela y la finalidad en menos de un segundo de Sui para operaciones autónomas en tiempo real.

Atoma Network se lanzó en la mainnet de Sui en diciembre de 2024 como la primera capa de inferencia de IA totalmente descentralizada, posicionándose como el "hiperescalador descentralizado para IA de código abierto". Todo el procesamiento ocurre en Entornos de Ejecución Confiables (TEEs) asegurando total privacidad y resistencia a la censura mientras mantiene la compatibilidad de API con los endpoints de OpenAI. La aplicación de chat Utopia demuestra una IA lista para producción que preserva la privacidad con un rendimiento que iguala a ChatGPT, liquidando pagos y validación a través de la finalidad en menos de un segundo de Sui. Atoma permite la gestión de carteras DeFi, la moderación de contenido en redes sociales y aplicaciones de asistente personal, casos de uso que requieren tanto inteligencia de IA como liquidación en blockchain, imposibles de lograr en cadenas más lentas.

OpenGraph Labs logró un avance técnico como el primer sistema de inferencia de IA totalmente en cadena diseñado específicamente para agentes de IA. Su SDK TensorflowSui automatiza la implementación de modelos de ML de Web2 (TensorFlow, PyTorch) en la blockchain de Sui, almacenando datos de entrenamiento en el almacenamiento descentralizado Walrus mientras ejecuta inferencias utilizando Bloques de Transacciones Programables. OpenGraph ofrece tres enfoques de inferencia flexibles: inferencia PTB para cálculos críticos que requieren atomicidad, transacciones divididas para optimización de costos y combinaciones híbridas personalizadas por caso de uso. Esta arquitectura elimina los riesgos de IA de "caja negra" a través de procesos de inferencia totalmente verificables y auditables con una propiedad algorítmica claramente definida, algo crítico para industrias reguladas que requieren IA explicable.

Talus Network se lanzó en Sui en febrero de 2025 con el framework Nexus que permite a los desarrolladores construir agentes de IA componibles que ejecutan flujos de trabajo directamente en la cadena. La plataforma Idol.fun de Talus demuestra agentes de IA orientados al consumidor como entidades tokenizadas que operan de forma autónoma 24/7, tomando decisiones en tiempo real aprovechando conjuntos de datos almacenados en Walrus para el sentimiento del mercado, estadísticas DeFi y tendencias sociales. Las aplicaciones de ejemplo incluyen la gestión dinámica de perfiles NFT, agentes de estrategia de liquidez DeFi que cargan modelos en tiempo real y agentes de detección de fraude que analizan patrones de transacciones históricas desde puntos de control inmutables de Sui.

La asociación con Alibaba Cloud anunciada en agosto de 2025 integró asistentes de codificación de IA en la plataforma de desarrollo ChainIDE con soporte multilingüe (inglés, chino, coreano). Las características incluyen la generación de código Move a partir de lenguaje natural, autocompletado inteligente, detección de vulnerabilidades de seguridad en tiempo real y generación automatizada de documentación, lo que reduce las barreras para el 60% del objetivo de desarrolladores de Sui que no hablan inglés. Esta asociación valida el posicionamiento de Sui como la plataforma de desarrollo de IA, no simplemente una plataforma de implementación de IA.

Las transacciones patrocinadas de Sui eliminan la fricción del pago de gas para los agentes de IA: los desarrolladores pueden cubrir las tarifas de transacción, lo que permite a los agentes operar sin tener tokens SUI. La denominación MIST (1 SUI = 1.000 millones de MIST) permite micropagos tan pequeños como fracciones de centavo, perfectos para servicios de IA de pago por inferencia. Con costos de transacción promedio de alrededor de $0,0023, los agentes de IA pueden ejecutar miles de operaciones diarias por centavos, haciendo que las economías de agentes autónomos sean económicamente viables.

La colaboración multi-robot demuestra la ventaja de coordinación en tiempo real de Sui

Sui demostró el primer sistema de colaboración multi-robot de la industria blockchain utilizando el consenso Mysticeti, validado por el análisis exhaustivo de Tiger Research de 2025. El sistema permite a los robots compartir un estado consistente en entornos distribuidos mientras mantiene la Tolerancia a Fallos Bizantinos, asegurando el consenso incluso cuando los robots funcionan mal o son comprometidos por adversarios.

La arquitectura técnica aprovecha el modelo de objetos de Sui, donde los robots existen como objetos programables con metadatos, propiedad y capacidades. Las tareas se asignan a objetos de robot específicos con contratos inteligentes que automatizan las reglas de secuenciación y asignación de recursos. El sistema mantiene la fiabilidad sin servidores centrales, con propuestas de bloques paralelas de múltiples validadores que evitan puntos únicos de fallo. La finalidad de transacción en menos de un segundo permite bucles de ajuste en tiempo real: los robots reciben confirmaciones de tareas y actualizaciones de estado en menos de 400 ms, lo que coincide con los requisitos del sistema de control para una operación autónoma receptiva.

Las pruebas físicas con robots con forma de perro ya demostraron su viabilidad, con equipos de NASA, Meta y Uber desarrollando aplicaciones de robótica basadas en Sui. La capacidad única de "modo sin internet" de Sui —operando a través de ondas de radio sin conectividad a internet estable— proporciona ventajas revolucionarias para implementaciones rurales en África, Asia rural y escenarios de emergencia. Esta capacidad offline existe exclusivamente en Sui entre las principales blockchains, validada por pruebas durante cortes de energía en España/Portugal.

La asociación con 3DOS anunciada en septiembre de 2024 valida las capacidades de robótica de fabricación de Sui a escala. 3DOS integró más de 79.909 impresoras 3D en más de 120 países como socio exclusivo de blockchain de Sui, creando una red de "Uber para impresión 3D" que permite la fabricación peer-to-peer. Entre los clientes notables se incluyen John Deere, Google, MIT, Harvard, Bosch, el Ejército Británico, la Marina de los EE. UU., la Fuerza Aérea de los EE. UU. y la NASA, lo que demuestra la confianza de nivel empresarial en la infraestructura de Sui. El sistema permite a los robots pedir e imprimir piezas de repuesto de forma autónoma a través de la automatización de contratos inteligentes, facilitando la autorreparación de robots con una intervención humana casi nula. Esto aborda el mercado global de fabricación de 15,6 billones de dólares a través de la producción bajo demanda, eliminando inventario, residuos y envíos internacionales.

La Tolerancia a Fallos Bizantinos de Sui resulta crítica para aplicaciones de robótica de seguridad crítica. El mecanismo de consenso tolera hasta f robots defectuosos/maliciosos en un sistema 3f+1, asegurando que las flotas de vehículos autónomos, los robots de almacén y los sistemas de fabricación mantengan la coordinación a pesar de los fallos individuales. Los contratos inteligentes imponen restricciones de seguridad y límites operativos, con registros de auditoría inmutables que proporcionan responsabilidad para las decisiones autónomas, requisitos imposibles de cumplir con servidores de coordinación centralizados vulnerables a puntos únicos de fallo.

La hoja de ruta de resistencia cuántica ofrece superioridad criptográfica

La estrategia de computación cuántica de Sui representa el único enfoque integral y proactivo de la industria blockchain alineado con los mandatos del NIST que exigen la deprecación de algoritmos clásicos para 2030 y la estandarización completa resistente a la cuántica para 2035.

La investigación innovadora de Chalkias de julio de 2025 demostró que las cadenas basadas en EdDSA, incluida Sui, pueden implementar actualizaciones de carteras cuánticamente seguras sin bifurcaciones duras, cambios de dirección o congelación de cuentas a través de pruebas de conocimiento cero que demuestran el conocimiento de la semilla. Esto permite una migración segura incluso para cuentas inactivas, resolviendo la amenaza existencial que enfrentan las blockchains donde millones de carteras "podrían ser vaciadas instantáneamente" una vez que lleguen las computadoras cuánticas. La innovación técnica utiliza pruebas STARK (seguridad basada en hash resistente a la cuántica) para probar el conocimiento de las semillas de generación de claves EdDSA sin exponer datos sensibles, permitiendo a los usuarios establecer la propiedad de claves PQ vinculada a direcciones existentes.

La arquitectura de agilidad criptográfica de Sui permite múltiples estrategias de transición: proactiva (las claves PQ firman claves públicas PreQ en la creación), adaptativa (las pruebas STARK migran direcciones existentes) e híbrida (multifirma de tiempo limitado con claves clásicas y PQ). El protocolo soporta el despliegue inmediato de algoritmos estandarizados por el NIST, incluyendo CRYSTALS-Dilithium (ML-DSA), FALCON (FN-DSA) y SPHINCS+ (SLH-DSA) para seguridad post-cuántica basada en retículos y hash. Las firmas BLS de los validadores transicionan a alternativas basadas en retículos, las funciones hash se actualizan de salidas de 256 bits a 384 bits para resistencia a colisiones resistente a la cuántica, y los circuitos zkLogin migran de Groth16 a pruebas de conocimiento cero basadas en STARK.

El framework Nautilus lanzado en junio de 2025 proporciona computación segura fuera de la cadena utilizando TEEs (Trusted Execution Environments) autogestionados, actualmente compatible con AWS Nitro Enclaves y con futura compatibilidad con Intel TDX y AMD SEV. Para aplicaciones de IA, Nautilus permite la inferencia privada de IA con atestaciones criptográficas verificadas en cadena, resolviendo la tensión entre la eficiencia computacional y la verificabilidad. Los socios de lanzamiento, incluidos Bluefin (emparejamiento de órdenes basado en TEE en <1 ms), TensorBlock (infraestructura de agentes de IA) y OpenGradient, demuestran la preparación para la producción de computación resistente a la cuántica que preserva la privacidad.

El análisis comparativo revela la ventaja cuántica de Sui: Ethereum permanece en fase de planificación, con Vitalik Buterin afirmando que la resistencia cuántica está "al menos a una década de distancia", requiriendo bifurcaciones duras y consenso de la comunidad. Solana lanzó Winternitz Vault en enero de 2025 como una característica opcional de firma basada en hash que requiere la participación del usuario, no una implementación a nivel de protocolo. Otras blockchains importantes (Aptos, Avalanche, Polkadot) permanecen en fase de investigación sin plazos de implementación concretos. Solo Sui diseñó la agilidad criptográfica como un principio fundamental que permite transiciones rápidas de algoritmos sin batallas de gobernanza o divisiones de red.

La síntesis de la arquitectura técnica crea capacidades emergentes

Los componentes arquitectónicos de Sui interactúan sinérgicamente para crear capacidades que superan la suma de las características individuales, una característica que distingue a las plataformas verdaderamente innovadoras de las mejoras incrementales.

El modelo de recursos del lenguaje Move combinado con la ejecución paralela de objetos permite un rendimiento sin precedentes para enjambres de agentes de IA. Las blockchains tradicionales que utilizan modelos basados en cuentas requieren ejecución secuencial para prevenir condiciones de carrera, limitando la coordinación de agentes de IA a cuellos de botella de un solo hilo. La declaración explícita de dependencias de Sui a través de referencias de objetos permite a los validadores identificar operaciones independientes antes de la ejecución, programando miles de transacciones de agentes de IA simultáneamente en los núcleos de la CPU. Esta paralelización del acceso al estado (frente a la ejecución optimista que requiere detección de conflictos) proporciona un rendimiento predecible sin fallos de transacción retroactivos, algo crítico para los sistemas de IA que requieren garantías de fiabilidad.

Los Bloques de Transacciones Programables amplifican la composibilidad de Move al permitir hasta 1.024 llamadas a funciones heterogéneas en transacciones atómicas. Los agentes de IA pueden ejecutar flujos de trabajo complejos —intercambiar tokens, actualizar datos de oráculos, activar inferencia de aprendizaje automático, acuñar NFTs, enviar notificaciones—, todo garantizado para tener éxito o fallar en conjunto. Esta composición heterogénea traslada la lógica de los contratos inteligentes al nivel de la transacción, reduciendo drásticamente los costos de gas y aumentando la flexibilidad. Para la robótica, los PTB permiten operaciones atómicas de varios pasos como "verificar inventario, pedir piezas, autorizar pago, actualizar estado" con garantías criptográficas de consistencia.

La vía rápida de omisión de consenso para objetos de un solo propietario crea un modelo de rendimiento de dos niveles que se adapta perfectamente a los patrones de acceso de IA/robótica. Los robots individuales mantienen el estado privado (lecturas de sensores, parámetros operativos) como objetos propios procesados en 250 ms sin consenso del validador. Los puntos de coordinación (colas de tareas, grupos de recursos) existen como objetos compartidos que requieren un consenso de 390 ms. Esta arquitectura refleja los sistemas autónomos del mundo real donde los agentes mantienen el estado local pero se coordinan a través de recursos compartidos; el modelo de objetos de Sui proporciona primitivas nativas de blockchain que coinciden con estos patrones de forma natural.

zkLogin resuelve la fricción de incorporación que impide la adopción masiva de agentes de IA. La blockchain tradicional requiere que los usuarios gestionen frases semilla y claves privadas, lo que es cognitivamente exigente y propenso a errores. zkLogin permite la autenticación a través de credenciales OAuth familiares (Google, Facebook, Twitch) con sal controlada por el usuario que evita la correlación de identidad Web2-Web3. Los agentes de IA pueden operar bajo autenticación Web2 mientras mantienen la seguridad de la blockchain, reduciendo drásticamente las barreras para las aplicaciones de consumo. Las más de 10 dApps que ya integran zkLogin demuestran la viabilidad práctica para audiencias no nativas de cripto.

El posicionamiento competitivo revela liderazgo técnico y crecimiento del ecosistema

El análisis comparativo entre las principales blockchains (Solana, Ethereum, Aptos, Avalanche, Polkadot) revela la superioridad técnica de Sui para cargas de trabajo de computación avanzada, equilibrada con la madurez del ecosistema de Ethereum y la adopción actual de DePIN de Solana.

Las métricas de rendimiento establecen a Sui como el líder en rendimiento con 297.000 TPS probados en 100 validadores manteniendo una finalidad de 480 ms, frente a los 65.000-107.000 TPS teóricos de Solana (3.000-4.000 sostenidos) y los 15-30 TPS de la capa base de Ethereum. Aptos logra 160.000 TPS teóricos con una arquitectura similar basada en Move pero con diferentes modelos de ejecución. Para cargas de trabajo de IA que requieren decisiones en tiempo real, la finalidad de 480 ms de Sui permite bucles de respuesta inmediatos imposibles con la finalidad de 12-15 minutos de Ethereum o incluso la congestión ocasional de la red de Solana (75% de fallos de transacción en abril de 2024 durante la carga máxima).

El análisis de resistencia cuántica muestra a Sui como la única blockchain con criptografía resistente a la cuántica diseñada en su arquitectura central desde el inicio. Ethereum aborda la cuántica en la fase de hoja de ruta "The Splurge", pero Vitalik Buterin estima un 20% de probabilidad de que la cuántica rompa las criptomonedas para 2030, basándose en planes de "bifurcación de recuperación" de emergencia reactivos en lugar de proactivos. Winternitz Vault de Solana proporciona protección cuántica opcional que requiere la participación del usuario, no seguridad automática en toda la red. Aptos, Avalanche y Polkadot permanecen en fase de investigación sin plazos concretos. La agilidad criptográfica de Sui con múltiples rutas de migración, zkLogin basado en STARK y una hoja de ruta alineada con NIST la posiciona como la única blockchain lista para las transiciones post-cuánticas obligatorias de 2030/2035.

Los ecosistemas de agentes de IA muestran a Solana liderando actualmente la adopción con herramientas maduras (SendAI Agent Kit, ElizaOS) y la comunidad de desarrolladores más grande, pero Sui demuestra una capacidad técnica superior a través de una capacidad de 300.000 TPS, latencia sub-segundo y más de 50 proyectos, incluidas plataformas de producción (mainnet de Atoma, Talus Nexus, inferencia en cadena de OpenGraph). Ethereum se centra en estándares de IA institucionales (ERC-8004 para identidad/confianza de IA), pero la capa base de 15-30 TPS limita las aplicaciones de IA en tiempo real a soluciones de Capa 2. La asociación con Alibaba Cloud que posiciona a Sui como la plataforma de desarrollo de IA (no simplemente una plataforma de implementación) señala una diferenciación estratégica de las blockchains puramente financieras.

Las capacidades robóticas existen exclusivamente en Sui entre las principales blockchains. Ningún competidor demuestra infraestructura de colaboración multi-robot, coordinación tolerante a fallos bizantinos o operación offline en "modo sin internet". El análisis de Tiger Research concluye que "blockchain puede ser una infraestructura más adecuada para robots que para humanos" dada la capacidad de los robots para aprovechar la coordinación descentralizada sin confianza centralizada. Con Morgan Stanley proyectando mil millones de robots humanoides para 2050, la infraestructura robótica construida específicamente para Sui crea una ventaja de primer movimiento en la economía robótica emergente donde los sistemas autónomos requieren identidad, pagos, contratos y coordinación, primitivas que Sui proporciona de forma nativa.

Las ventajas del lenguaje de programación Move posicionan tanto a Sui como a Aptos por encima de las cadenas basadas en Solidity para aplicaciones complejas que requieren seguridad. El modelo orientado a recursos de Move previene clases de vulnerabilidades imposibles de corregir en Solidity, evidenciado por los más de 1.100 millones de dólares perdidos en exploits en 2024 en Ethereum. El soporte de verificación formal, el sistema de tipos lineal y las abstracciones de activos de primera clase hacen que Move sea particularmente adecuado para agentes de IA que gestionan activos valiosos de forma autónoma. La variante centrada en objetos de Sui Move (frente a Diem Move basada en cuentas) permite ventajas de ejecución paralela no disponibles en Aptos a pesar de la herencia del lenguaje compartido.

Implementaciones en el mundo real validan las capacidades técnicas

Las implementaciones en producción de Sui demuestran que la plataforma está pasando del potencial técnico a la utilidad práctica en los dominios de IA, robótica y cuántica.

La madurez de la infraestructura de IA muestra una clara tracción con el lanzamiento de la mainnet de Atoma Network en diciembre de 2024 que sirve inferencia de IA en producción, el despliegue del framework Nexus de Talus en febrero de 2025 que permite flujos de trabajo de agentes componibles, y la ronda de financiación de 13 millones de dólares de Swarm Network respaldada por Kostas Chalkias vendiendo más de 10.000 licencias de agentes de IA en Sui. La asociación con Alibaba Cloud proporciona validación de nivel empresarial con asistentes de codificación de IA integrados en las herramientas de desarrollo, demostrando un compromiso estratégico más allá de las aplicaciones especulativas. OpenGraph Labs ganando el primer lugar en el Sui AI Typhoon Hackathon con inferencia de ML en cadena señala una innovación técnica reconocida por jueces expertos.

La robótica de fabricación alcanzó escala comercial a través de la red de 79.909 impresoras de 3DOS en más de 120 países, sirviendo a la NASA, la Marina de los EE. UU., la Fuerza Aérea de los EE. UU., John Deere y Google. Esto representa la red de fabricación integrada en blockchain más grande a nivel mundial, procesando más de 4,2 millones de piezas con más de 500.000 usuarios. El modelo peer-to-peer que permite a los robots pedir piezas de repuesto de forma autónoma demuestra la automatización de contratos inteligentes, eliminando la sobrecarga de coordinación a escala industrial —prueba de concepto validada por exigentes clientes gubernamentales y aeroespaciales que requieren fiabilidad y seguridad.

Las métricas financieras muestran una creciente adopción con 538 millones de dólares en TVL, 17,6 millones de carteras activas mensuales (pico de febrero de 2025) y una capitalización de mercado del token SUI que supera los 16 mil millones de dólares. Mysten Labs logró una valoración de más de 3 mil millones de dólares respaldada por a16z, Binance Labs, Coinbase Ventures y Jump Crypto, validación institucional del potencial técnico. Los bancos suizos (Sygnum, Amina Bank) que ofrecen custodia y comercio de Sui proporcionan rampas de acceso a las finanzas tradicionales, mientras que los productos institucionales de Grayscale, Franklin Templeton y VanEck señalan un reconocimiento generalizado.

El crecimiento del ecosistema de desarrolladores demuestra sostenibilidad con herramientas completas (SDKs de TypeScript, Rust, Python, Swift, Dart, Golang), asistentes de codificación de IA en ChainIDE y programas de hackatones activos donde el 50% de los ganadores se centraron en aplicaciones de IA. Los 122 validadores activos en la mainnet proporcionan una descentralización adecuada mientras mantienen el rendimiento, equilibrando la seguridad con el rendimiento mejor que las alternativas altamente centralizadas.

La visión estratégica posiciona a Sui para la era de la convergencia

Kostas Chalkias y el liderazgo de Mysten Labs articulan una visión coherente a largo plazo que distingue a Sui de sus competidores centrados en casos de uso estrechos o mejoras iterativas.

La audaz predicción de Chalkias de que "eventualmente, blockchain superará incluso a Visa en velocidad de transacción. Será la norma. No veo cómo podemos escapar de esto" señala confianza en la trayectoria técnica respaldada por decisiones arquitectónicas que habilitan ese futuro. Su afirmación de que Mysten Labs "podría superar lo que Apple es hoy" refleja una ambición basada en construir infraestructura fundamental para la computación de próxima generación en lugar de aplicaciones DeFi incrementales. La decisión de nombrar a su hijo "Kryptos" (griego para "secreto/oculto") simboliza el compromiso personal con la innovación criptográfica como infraestructura civilizatoria.

La estrategia de tres pilares que integra IA, robótica y computación cuántica crea ventajas que se refuerzan mutuamente. La criptografía resistente a la cuántica permite la seguridad de activos a largo plazo para agentes de IA que operan de forma autónoma. La finalidad en menos de un segundo soporta bucles de control robótico en tiempo real. La ejecución paralela permite que miles de agentes de IA se coordinen simultáneamente. El modelo de objetos proporciona una abstracción natural tanto para el estado del agente de IA como para la representación del dispositivo robot. Esta coherencia arquitectónica distingue el diseño de plataforma con propósito de las características añadidas.

Las presentaciones tecnológicas de Sui Basecamp 2025 demuestran innovación continua con aleatoriedad verificable nativa (elimina dependencias de oráculos para inferencia de IA), túneles zk que permiten videollamadas privadas directamente en Sui, transacciones relámpago para operaciones sin gas durante emergencias y cápsulas del tiempo para acceso a datos futuros cifrados. Estas características abordan problemas reales de los usuarios (privacidad, fiabilidad, accesibilidad) en lugar de ejercicios académicos, con aplicaciones claras para agentes de IA que requieren aleatoriedad confiable, sistemas robóticos que necesitan operación offline y cifrado resistente a la cuántica para datos sensibles.

El posicionamiento como "capa de coordinación para una amplia gama de aplicaciones", desde la gestión de datos sanitarios hasta la propiedad de datos personales y la robótica, refleja las ambiciones de la plataforma más allá de la especulación financiera. La identificación de Chalkias de la ineficiencia de los datos sanitarios como un problema que requiere una base de datos común muestra un pensamiento sobre la infraestructura social en lugar de nichos estrechos de entusiastas de blockchain. Esta visión atrae a laboratorios de investigación, startups de hardware y gobiernos, audiencias que buscan infraestructura fiable para proyectos a largo plazo, no la agricultura de rendimiento especulativa.

La hoja de ruta técnica ofrece un cronograma de ejecución accionable

La hoja de ruta de desarrollo de Sui proporciona hitos concretos que demuestran la progresión de la visión a la implementación en los tres dominios de enfoque.

El cronograma de resistencia cuántica se alinea con los mandatos del NIST: 2025-2027 completa la infraestructura y las pruebas de agilidad criptográfica, 2028-2030 introduce actualizaciones de protocolo para firmas Dilithium/FALCON con operación híbrida PreQ-PQ, 2030-2035 logra la transición post-cuántica completa deprecando algoritmos clásicos. Las múltiples rutas de migración (proactiva, adaptativa, híbrida) proporcionan flexibilidad para diferentes segmentos de usuarios sin forzar una única estrategia de adopción. Las actualizaciones de la función hash a salidas de 384 bits y la investigación zkLogin PQ-zkSNARK avanzan en paralelo, asegurando una preparación cuántica integral en lugar de parches fragmentados.

La expansión de la infraestructura de IA muestra hitos claros con el lanzamiento de la mainnet de Walrus (Q1 2025) que proporciona almacenamiento descentralizado para modelos de IA, el framework Talus Nexus que permite flujos de trabajo de agentes componibles (despliegue en febrero de 2025) y el framework Nautilus TEE que se expande a Intel TDX y AMD SEV más allá del soporte actual de AWS Nitro Enclaves. La hoja de ruta de la asociación con Alibaba Cloud incluye soporte de idiomas ampliado, una integración más profunda de ChainIDE y días de demostración en Hong Kong, Singapur y Dubái dirigidos a comunidades de desarrolladores. El explorador de inferencia en cadena de OpenGraph y la maduración del SDK TensorflowSui proporcionan herramientas prácticas para desarrolladores de IA más allá de los frameworks teóricos.

El avance de las capacidades robóticas progresa desde demostraciones de colaboración multi-robot hasta implementaciones de producción con la expansión de la red 3DOS, capacidades de transacción por ondas de radio en "modo sin internet" y zkTunnels que permiten comandos de robot sin gas. La arquitectura técnica que soporta la Tolerancia a Fallos Bizantinos, bucles de coordinación en menos de un segundo y pagos autónomos M2M existe hoy en día; las barreras de adopción son educativas y de construcción de ecosistemas, más que limitaciones técnicas. La participación de exalumnos de NASA, Meta y Uber señala un talento de ingeniería serio que aborda desafíos robóticos del mundo real en lugar de proyectos de investigación académica.

Las mejoras del protocolo incluyen refinamientos del consenso Mysticeti que mantienen una ventaja de reducción de latencia del 80%, escalado horizontal a través de la ejecución multi-máquina Pilotfish y optimización del almacenamiento para un estado creciente. El sistema de puntos de control (cada ~3 segundos) proporciona instantáneas verificables para datos de entrenamiento de IA y registros de auditoría robóticos. La reducción del tamaño de las transacciones a formatos preestablecidos de un solo byte reduce los requisitos de ancho de banda para dispositivos IoT. La expansión de transacciones patrocinadas elimina la fricción del gas para aplicaciones de consumo que requieren una UX fluida similar a la Web2.

La excelencia técnica posiciona a Sui para el dominio de la computación avanzada

El análisis exhaustivo de la arquitectura técnica, la visión de liderazgo, las implementaciones en el mundo real y el posicionamiento competitivo revela a Sui como la plataforma blockchain excepcionalmente preparada para la convergencia de la IA, la robótica y la computación cuántica.

Sui logra superioridad técnica a través de métricas de rendimiento medidas: 297.000 TPS con 480 ms de finalidad supera a todos los principales competidores, permitiendo la coordinación de agentes de IA en tiempo real y el control robótico imposible en cadenas más lentas. El modelo de datos centrado en objetos combinado con la seguridad del lenguaje Move proporciona ventajas en el modelo de programación que previenen clases de vulnerabilidades que afectan a las arquitecturas basadas en cuentas. La agilidad criptográfica diseñada desde el inicio —no adaptada— permite transiciones resistentes a la cuántica sin bifurcaciones duras ni batallas de gobernanza. Estas capacidades existen hoy en producción en la mainnet con 122 validadores, no como whitepapers teóricos o hojas de ruta distantes.

El liderazgo visionario a través de las más de 50 publicaciones de Kostas Chalkias, 8 patentes estadounidenses e innovaciones criptográficas (zkLogin, BPQS, Winterfell STARK, HashWires) proporciona una base intelectual que distingue a Sui de competidores técnicamente competentes pero poco imaginativos. Su investigación innovadora en computación cuántica (julio de 2025), el apoyo a la infraestructura de IA (respaldo de Swarm Network) y la comunicación pública (Token 2049, Korea Blockchain Week, London Real) establecen un liderazgo intelectual que atrae a desarrolladores de primer nivel y socios institucionales. La voluntad de diseñar para plazos de 2030+ en lugar de métricas trimestrales demuestra el pensamiento estratégico a largo plazo requerido para la infraestructura de la plataforma.

La validación del ecosistema a través de implementaciones en producción (inferencia de IA en la mainnet de Atoma, red de 79.909 impresoras de 3DOS, frameworks de agentes de Talus) demuestra que las capacidades técnicas se traducen en utilidad en el mundo real. Las asociaciones institucionales (Alibaba Cloud, custodia de bancos suizos, productos de Grayscale/Franklin Templeton) señalan un reconocimiento generalizado más allá de los entusiastas nativos de blockchain. Las métricas de crecimiento de desarrolladores (50% de los ganadores de hackatones en IA, cobertura completa de SDK, asistentes de codificación de IA) demuestran una expansión sostenible del ecosistema que apoya la adopción a largo plazo.

El posicionamiento estratégico como infraestructura blockchain para la economía robótica, sistemas financieros resistentes a la cuántica y coordinación autónoma de agentes de IA crea una propuesta de valor diferenciada frente a competidores centrados en mejoras incrementales a casos de uso existentes de blockchain. Con Morgan Stanley proyectando mil millones de robots humanoides para 2050, el NIST exigiendo algoritmos resistentes a la cuántica para 2030, y McKinsey pronosticando un 40% de ganancias de productividad de la IA agentica, las capacidades técnicas de Sui se alinean precisamente con las macrotendencias tecnológicas que requieren infraestructura descentralizada.

Para las organizaciones que construyen aplicaciones de computación avanzada en blockchain, Sui ofrece capacidades técnicas inigualables (297K TPS, 480 ms de finalidad), una arquitectura resistente a la cuántica a prueba de futuro (la única blockchain diseñada para la cuántica desde su concepción), infraestructura robótica probada (la única que ha demostrado colaboración multi-robot), un modelo de programación superior (seguridad y expresividad del lenguaje Move) y un rendimiento en tiempo real que permite aplicaciones de IA/robótica físicamente imposibles en cadenas de ejecución secuencial. La plataforma representa no una mejora incremental, sino un replanteamiento arquitectónico fundamental para la próxima década de blockchain.

La base de Sui preparada para la computación cuántica para la inteligencia autónoma

· 33 min de lectura
Dora Noda
Software Engineer

La blockchain Sui se distingue de sus competidores por su agilidad criptográfica fundamental y su arquitectura centrada en objetos, posicionándola como la única blockchain de Capa 1 importante que avanza simultáneamente la integración de IA, la coordinación robótica y la seguridad resistente a la computación cuántica. Esto no es un posicionamiento de marketing, es una realidad arquitectónica. El cofundador y criptógrafo jefe Kostas "Kryptos" Chalkias ha incorporado sistemáticamente estas capacidades en el diseño central de Sui desde su inicio, creando lo que él describe como una infraestructura que "superará incluso a Visa en velocidad" mientras permanece segura contra las amenazas cuánticas que podrían "destruir toda la criptografía moderna" en una década.

La base técnica ya está lista para la producción: la finalidad del consenso de 390 milisegundos permite la coordinación de agentes de IA en tiempo real, la ejecución paralela procesa 297.000 transacciones por segundo en su pico, y los esquemas de firma EdDSA proporcionan una ruta de migración probada a la criptografía post-cuántica sin requerir bifurcaciones duras. Mientras tanto, Bitcoin y Ethereum se enfrentan a amenazas existenciales de la computación cuántica sin una ruta de actualización compatible con versiones anteriores. La visión de Chalkias se centra en tres pilares convergentes: la IA como capa de coordinación, los sistemas robóticos autónomos que requieren una finalidad en menos de un segundo, y los marcos criptográficos que permanecen seguros hasta 2035 y más allá. Sus declaraciones en conferencias, trabajos de investigación e implementaciones técnicas revelan no promesas especulativas, sino una ejecución sistemática de una hoja de ruta establecida en la fundación de Mysten Labs en 2022.

Esto importa más allá del tribalismo de las blockchains. Para 2030, los mandatos del NIST requieren la deprecación de los estándares de cifrado actuales. Los sistemas autónomos, desde robots de fabricación hasta agentes de IA, requerirán una coordinación sin confianza a escala. La arquitectura de Sui aborda ambas inevitabilidades simultáneamente, mientras los competidores se apresuran a adaptar soluciones. La pregunta no es si estas tecnologías convergen, sino qué plataformas sobreviven intactas a la convergencia.

El criptógrafo que llamó a su hijo Kryptos

Kostas Chalkias aporta una credibilidad poco común a la intersección de la blockchain con las tecnologías emergentes. Antes de cofundar Mysten Labs, se desempeñó como criptógrafo principal para el proyecto Diem de Meta y la billetera Novi, trabajó con Mike Hearn (uno de los primeros desarrolladores de Bitcoin asociados con Satoshi Nakamoto) en la blockchain Corda de R3, y posee un doctorado en Criptografía Basada en Identidad con más de 50 publicaciones científicas, 8 patentes estadounidenses y 1.374 citas académicas. Su dedicación al campo se extiende a nombrar a su hijo Kryptos —"Estoy tan inmerso en la tecnología de la blockchain y la criptografía, que de hecho convencí a mi esposa de tener un hijo que se llama Kryptos", explicó durante una entrevista en el blog de Sui.

Su trayectoria profesional revela un enfoque consistente en la criptografía práctica para una escala masiva. En Facebook, construyó infraestructura de seguridad para WhatsApp y sistemas de autenticación que servían a miles de millones. En R3, fue pionero en pruebas de conocimiento cero y firmas post-cuánticas para blockchains empresariales. Su carrera temprana incluyó la fundación de Betmanager, una plataforma impulsada por IA que predecía resultados de fútbol utilizando técnicas del mercado de valores, experiencia que informa su perspectiva actual sobre la integración blockchain-IA. Esta combinación de exposición a la IA, criptografía de producción e infraestructura blockchain lo posiciona de manera única para diseñar sistemas que unan estos dominios.

La filosofía técnica de Chalkias enfatiza la "agilidad criptográfica": construir flexibilidad en los protocolos fundamentales en lugar de asumir la permanencia. En la Conferencia Emergence en Praga (diciembre de 2024), articuló esta visión del mundo: "Eventualmente, la blockchain superará incluso a Visa en velocidad de transacción. Será la norma. No veo cómo podemos escapar de esto". Pero la velocidad por sí sola no es suficiente. Su trabajo combina consistentemente el rendimiento con la seguridad prospectiva, reconociendo que las computadoras cuánticas plantean amenazas que requieren acción hoy, no cuando el peligro se materialice. Este doble enfoque —rendimiento actual y resiliencia futura— define las decisiones arquitectónicas de Sui en IA, robótica y resistencia cuántica.

Arquitectura construida para agentes inteligentes

La base técnica de Sui diverge fundamentalmente de las blockchains basadas en cuentas como Ethereum y Solana. Cada entidad existe como un objeto con una ID globalmente única de 32 bytes, un número de versión, un campo de propiedad y contenido tipado. Este modelo centrado en objetos no es una preferencia estética, sino un habilitador de la ejecución paralela a escala. Cuando los agentes de IA operan como objetos propios, evitan el consenso por completo para operaciones de un solo escritor, logrando una finalidad de ~400 ms. Cuando múltiples agentes se coordinan a través de objetos compartidos, el consenso Mysticeti de Sui ofrece una latencia de 390 ms, aún en menos de un segundo, pero a través de un acuerdo tolerante a fallos bizantinos.

El lenguaje de programación Move, desarrollado originalmente en Meta para Diem y mejorado para Sui, impone la seguridad de los recursos a nivel del sistema de tipos. Los activos no pueden copiarse, destruirse o crearse accidentalmente sin permiso. Para aplicaciones de IA que gestionan datos valiosos o pesos de modelos, esto previene clases enteras de vulnerabilidades que afectan a los contratos inteligentes de Solidity. Chalkias destacó esto durante Sui Basecamp 2025 en Dubái: "Introdujimos pruebas de conocimiento cero, tecnologías de preservación de la privacidad, dentro de Sui desde el primer día. Así, alguien ahora puede crear un sistema KYC con tanta privacidad como desee".

La ejecución paralela de transacciones alcanza límites teóricos mediante la declaración explícita de dependencias. A diferencia de la ejecución optimista que requiere verificación retroactiva, el planificador de Sui identifica transacciones no superpuestas de antemano a través de IDs de objeto únicas. Las operaciones independientes se ejecutan concurrentemente en los núcleos de los validadores sin interferencia. Esta arquitectura demostró un rendimiento máximo de 297.000 TPS en pruebas, no máximos teóricos, sino rendimiento medido en hardware de producción. Para aplicaciones de IA, esto significa que miles de solicitudes de inferencia se procesan simultáneamente, múltiples agentes autónomos se coordinan sin bloqueo y la toma de decisiones en tiempo real opera a velocidades perceptibles para los humanos.

El protocolo de consenso Mysticeti, introducido en 2024, logra lo que Chalkias y sus coautores demostraron matemáticamente óptimo: tres rondas de mensajes para la confirmación. Al eliminar la certificación explícita de bloques e implementar estructuras DAG no certificadas, Mysticeti redujo la latencia en un 80% con respecto al consenso Narwhal-Bullshark anterior. El protocolo confirma bloques en cada ronda en lugar de cada dos rondas, utilizando reglas de decisión directas e indirectas derivadas de patrones DAG. Para aplicaciones de robótica que requieren retroalimentación de control en tiempo real, esta finalidad en menos de un segundo se vuelve innegociable. Durante la Korea Blockchain Week 2025, Chalkias posicionó a Sui como "una capa de coordinación para aplicaciones e IA", enfatizando cómo los socios en pagos, juegos e IA aprovechan esta base de rendimiento.

Walrus: resolviendo el problema de datos de la IA

Las cargas de trabajo de IA exigen almacenamiento a escalas incompatibles con la economía tradicional de las blockchains. Los conjuntos de datos de entrenamiento abarcan terabytes, los pesos de los modelos requieren gigabytes y los registros de inferencia se acumulan rápidamente. Sui aborda esto a través de Walrus, un protocolo de almacenamiento descentralizado que utiliza codificación de borrado para lograr una replicación de 4 a 5 veces en lugar de la replicación de 100 veces típica del almacenamiento en cadena. El algoritmo "Red Stuff" divide los datos en fragmentos distribuidos entre los nodos de almacenamiento, permaneciendo recuperables con 2/3 de los nodos no disponibles. Los metadatos y las pruebas de disponibilidad residen en la blockchain de Sui, mientras que los datos reales residen en Walrus, creando un almacenamiento criptográficamente verificable a escala de exabytes.

Durante el primer mes de la testnet de Walrus, la red almacenó más de 4.343 GB en más de 25 nodos comunitarios, validando la viabilidad de la arquitectura. Proyectos como TradePort, Tusky y Decrypt Media integraron Walrus para el almacenamiento y la recuperación de medios. Para aplicaciones de IA, esto permite escenarios prácticos: conjuntos de datos de entrenamiento tokenizados como activos programables con términos de licencia codificados en contratos inteligentes, pesos de modelos persistidos con control de versiones, resultados de inferencia registrados inmutablemente para pistas de auditoría y contenido generado por IA almacenado de manera rentable. La capa de inferencia de IA de Atoma Network, anunciada como el primer socio de integración de IA de blockchain de Sui, aprovecha esta base de almacenamiento para la generación automatizada de código, la automatización de flujos de trabajo y el análisis de riesgos DeFi.

La integración se extiende más allá del almacenamiento a la orquestación de la computación. Los Bloques de Transacciones Programables (PTB) de Sui agrupan hasta 1.024 operaciones heterogéneas de forma atómica, ejecutándose todo o nada. Un flujo de trabajo de IA podría recuperar datos de entrenamiento de Walrus, actualizar los pesos del modelo en un contrato inteligente, registrar los resultados de la inferencia en cadena y distribuir recompensas a los contribuyentes de datos, todo en una única transacción atómica. Esta componibilidad, combinada con la seguridad de tipos de Move, crea bloques de construcción para sistemas de IA complejos sin la fragilidad de las llamadas entre contratos en otros entornos.

Chalkias enfatizó la capacidad sobre el marketing durante el podcast Just The Metrics (julio de 2025), señalando las "ineficiencias en la gestión de datos sanitarios" como áreas de aplicación práctica. La IA en el sector sanitario requiere coordinación entre instituciones, preservación de la privacidad para datos sensibles y computación verificable para el cumplimiento normativo. La arquitectura de Sui —que combina la coordinación en cadena, el almacenamiento de Walrus y la privacidad de conocimiento cero— aborda estos requisitos de forma técnica en lugar de conceptual. La asociación con Google Cloud anunciada en 2024 reforzó esta dirección, integrando los datos de Sui en BigQuery para análisis y entrenando la plataforma Vertex AI de Google en el lenguaje Move para el desarrollo asistido por IA.

Cuando los robots necesitan liquidación en menos de un segundo

La visión de la robótica se materializa más concretamente a través de las capacidades técnicas que de las asociaciones anunciadas. El modelo de objetos de Sui representa robots, herramientas y tareas como ciudadanos de primera clase en la cadena con control de acceso granular. A diferencia de los sistemas basados en cuentas donde los robots interactúan a través de permisos a nivel de cuenta, los objetos de Sui permiten sistemas de permisos multinivel, desde la operación básica hasta el control total con requisitos de multifirma. La integración de PassKeys y FaceID admite escenarios con intervención humana, mientras que los zkTunnels permiten la transmisión de comandos sin gas para operaciones remotas en tiempo real.

Durante las discusiones en redes sociales, Chalkias (publicando como "Kostas Kryptos") reveló que ingenieros de Sui con experiencia en NASA, Meta y Uber estaban probando robots cuadrúpedos tipo perro en la red. La arquitectura basada en objetos se adapta a la coordinación robótica: cada robot posee objetos que representan su estado y capacidades, las tareas existen como objetos transferibles con parámetros de ejecución, y la asignación de recursos se realiza a través de la composición de objetos en lugar de una coordinación centralizada. Una instalación de fabricación podría desplegar flotas de robots donde cada unidad acepta tareas de forma autónoma, se coordina con sus pares a través de objetos compartidos, ejecuta operaciones con verificación criptográfica y liquida micropagos por los servicios prestados, todo sin autoridad central ni intervención humana.

El modo de transacción "sin internet", discutido durante Sui Basecamp 2025 y el podcast London Real (abril de 2025), aborda las limitaciones del mundo real de la robótica. Chalkias describió cómo el sistema mantuvo la funcionalidad durante los cortes de energía en España y Portugal, con tamaños de transacción optimizados hacia bytes individuales utilizando formatos preestablecidos. Para sistemas autónomos que operan en zonas de desastre, áreas rurales o entornos con conectividad poco fiable, esta resiliencia se vuelve crítica. Los robots pueden realizar transacciones de igual a igual para una coordinación inmediata, sincronizándose con la red más amplia cuando se restablece la conectividad.

El proyecto 3DOS ejemplifica esta visión en la práctica: una red de impresión 3D basada en blockchain que permite la fabricación bajo demanda donde las máquinas imprimen piezas de forma autónoma. Las futuras iteraciones prevén robots autorreparables que detectan fallos de componentes, solicitan reemplazos a través de contratos inteligentes, identifican impresoras 3D cercanas mediante descubrimiento en cadena, coordinan la impresión y entrega, e instalan componentes, todo de forma autónoma. Esto no es ciencia ficción, sino una extensión lógica de las capacidades existentes: la integración de microcontroladores ESP32 y Arduino ya es compatible con dispositivos IoT básicos, BugDar proporciona auditoría de seguridad para contratos inteligentes robóticos, y las aprobaciones multifirma permiten una autonomía gradual con supervisión humana para operaciones críticas.

El reloj cuántico está en marcha

El tono de Kostas Chalkias cambia de filosófico a urgente cuando habla de la computación cuántica. En un informe de investigación de julio de 2025, advirtió sin rodeos: "Los gobiernos son muy conscientes de los riesgos que plantea la computación cuántica. Agencias de todo el mundo han emitido mandatos para que los algoritmos clásicos como ECDSA y RSA sean deprecados para 2030 o 2035". Su anuncio en Twitter acompañó la investigación innovadora de Mysten Labs publicada en el Archivo ePrint de la IACR, demostrando cómo las blockchains basadas en EdDSA como Sui, Solana, Near y Cosmos poseen ventajas estructurales para la transición cuántica que no están disponibles para Bitcoin y Ethereum.

La amenaza proviene de las computadoras cuánticas que ejecutan el Algoritmo de Shor, que factoriza eficientemente números grandes, la dificultad matemática subyacente a la criptografía RSA, ECDSA y BLS. El procesador cuántico Willow de Google con 105 qubits señala un progreso acelerado hacia máquinas capaces de romper el cifrado clásico. El ataque de "almacenar ahora, descifrar después" agrava la urgencia: los adversarios recopilan datos cifrados hoy, esperando que las computadoras cuánticas los descifren retroactivamente. Para los activos de blockchain, Chalkias explicó a Decrypt Magazine: "Incluso si alguien todavía posee su clave privada de Bitcoin o Ethereum, es posible que no pueda generar una prueba de propiedad segura post-cuántica, y esto se reduce a cómo se generó originalmente esa clave y cuántos de sus datos asociados han sido expuestos con el tiempo".

La vulnerabilidad particular de Bitcoin se deriva de las billeteras "dormidas" con claves públicas expuestas. Se estima que 1 millón de BTC de Satoshi Nakamoto residen en direcciones tempranas que utilizan el formato de pago a clave pública: la clave pública es visible en la cadena en lugar de estar oculta detrás de direcciones hash. Una vez que las computadoras cuánticas escalen lo suficiente, estas billeteras pueden ser vaciadas instantáneamente. La evaluación de Chalkias: "Una vez que lleguen las computadoras cuánticas, millones de billeteras, incluida la de Satoshi, podrían ser vaciadas instantáneamente. Si su clave pública es visible, eventualmente será descifrada". Ethereum enfrenta desafíos similares, aunque un menor número de claves públicas expuestas mitiga el riesgo inmediato. Ambas cadenas requieren bifurcaciones duras a nivel de toda la comunidad con una coordinación sin precedentes para migrar, asumiendo que se forme un consenso en torno a los algoritmos post-cuánticos.

La base EdDSA de Sui proporciona una elegante vía de escape. A diferencia de las claves privadas aleatorias de ECDSA, EdDSA deriva las claves de forma determinista a partir de una semilla utilizando funciones hash según el RFC 8032. Esta diferencia estructural permite pruebas de conocimiento cero a través de zk-STARKs (que son seguras post-cuánticas) que demuestran el conocimiento de la semilla subyacente sin exponer datos de curva elíptica. Los usuarios construyen pares de claves post-cuánticas a partir de la misma aleatoriedad de la semilla, envían pruebas ZK que demuestran una propiedad idéntica y realizan la transición a esquemas seguros cuánticamente mientras preservan las direcciones, sin necesidad de una bifurcación dura. Chalkias detalló esto durante el AMA de Sui de junio de 2022: "Si estás utilizando algoritmos deterministas, como EdDSA, hay una forma con pruebas Stark de demostrar el conocimiento de las pirámides de tu clave privada en una generación de clave EdDSA, porque utiliza una función hash internamente".

La agilidad criptográfica como foso estratégico

Sui admite múltiples esquemas de firma simultáneamente a través de alias de tipo unificados en todo el código base: EdDSA (Ed25519), ECDSA (para compatibilidad con Ethereum) y algoritmos post-cuánticos planificados. Chalkias diseñó esta "agilidad criptográfica" reconociendo que la permanencia es una fantasía en criptografía. La arquitectura se asemeja a "cambiar el núcleo de una cerradura" en lugar de reconstruir todo el sistema de seguridad. Cuando se implementen los algoritmos post-cuánticos recomendados por el NIST —CRYSTALS-Dilithium para firmas, FALCON para alternativas compactas, SPHINCS+ para esquemas basados en hash—, Sui los integrará mediante actualizaciones sencillas en lugar de reescrituras fundamentales del protocolo.

Las estrategias de transición equilibran enfoques proactivos y adaptativos. Para las nuevas direcciones, los usuarios pueden generar configuraciones PQ-signs-PreQ donde las claves post-cuánticas firman claves públicas pre-cuánticas en el momento de la creación, lo que permite una migración futura fluida. Para las direcciones existentes, el método de prueba zk-STARK preserva las direcciones al tiempo que demuestra la propiedad segura cuánticamente. La defensa por capas prioriza los datos de alto valor: las claves privadas de las billeteras reciben protección PQ inmediata, mientras que los datos de privacidad transitorios siguen rutas de actualización más lentas. Las salidas de las funciones hash se expanden de 256 bits a 384 bits para la resistencia a colisiones contra el algoritmo de Grover, y las longitudes de las claves de cifrado simétrico se duplican (AES sigue siendo resistente a la computación cuántica con claves más grandes).

Los sistemas de pruebas de conocimiento cero requieren una consideración cuidadosa. Los PCP lineales como Groth16 (que actualmente impulsan zkLogin) se basan en curvas elípticas amigables con el emparejamiento vulnerables a ataques cuánticos. La hoja de ruta de transición de Sui avanza hacia sistemas STARK basados en hash —Winterfell, codesarrollado por Mysten Labs, utiliza solo funciones hash y sigue siendo plausiblemente seguro post-cuántico. La migración de zkLogin mantiene las mismas direcciones mientras actualiza los circuitos internos, lo que requiere coordinación con los proveedores de OpenID a medida que adoptan tokens PQ-JWT. Las balizas de aleatoriedad y los protocolos de generación de claves distribuidas pasan de firmas BLS de umbral a alternativas basadas en retículos como los esquemas HashRand o HERB —cambios de protocolo internos invisibles para las API en cadena.

La experiencia de Chalkias resulta crítica aquí. Como autor de BPQS (Blockchain Post-Quantum Signature), una variante del esquema XMSS basado en hash, aporta experiencia de implementación más allá del conocimiento teórico. Su compromiso de junio de 2022 resultó profético: "Construiremos nuestra cadena de una manera en la que, con solo pulsar un botón, la gente pueda pasar a claves post-cuánticas". Los plazos del NIST —2030 para la deprecación de algoritmos clásicos, 2035 para la adopción completa de PQ— comprimen drásticamente los plazos. La ventaja inicial de Sui la posiciona favorablemente, pero Chalkias enfatiza la urgencia: "Si su blockchain admite activos soberanos, tesorerías nacionales en cripto, ETF o CBDC, pronto se le exigirá que adopte estándares criptográficos post-cuánticos, si su comunidad se preocupa por la credibilidad a largo plazo y la adopción masiva".

Los agentes de IA ya generan $1.8 mil millones en valor

El ecosistema va más allá de la infraestructura y se adentra en las aplicaciones de producción. Dolphin Agent (DOLA), especializado en seguimiento y análisis de datos de blockchain, alcanzó una capitalización de mercado de más de $1.8 mil millones, validando la demanda de herramientas de blockchain mejoradas con IA. SUI Agents proporciona una implementación de agente de IA con un solo clic con creación de persona de Twitter, tokenización y comercio dentro de ecosistemas descentralizados. Sentient AI recaudó $1.5 millones para chatbots conversacionales que aprovechan la seguridad y escalabilidad de Sui. DeSci Agents promueve compuestos científicos como Epitalon y Rapamicina a través de un compromiso impulsado por IA las 24 horas del día, los 7 días de la semana, uniendo la investigación y la inversión a través del emparejamiento de tokens.

La integración de Atoma Network como el primer socio de inferencia de IA de blockchain de Sui permite capacidades que abarcan la generación y auditoría automatizada de código, la automatización de flujos de trabajo, el análisis de riesgos DeFi, la generación de activos de juegos, la clasificación de contenido de redes sociales y la gestión de DAO. La selección de la asociación reflejó los requisitos técnicos: Atoma necesitaba baja latencia para IA interactiva, alto rendimiento para escala, propiedad segura para activos de IA, computación verificable, almacenamiento rentable y opciones de preservación de la privacidad. Sui entregó las seis. Durante Sui Basecamp 2025, Chalkias destacó proyectos como Aeon, los agentes de IA de Atoma y el trabajo de Nautilus en computación verificable fuera de la cadena como ejemplos de "cómo Sui podría servir como base para la próxima ola de sistemas inteligentes y descentralizados".

La asociación con Google Cloud profundiza la integración a través del acceso a BigQuery para datos de la blockchain Sui para análisis, el entrenamiento de Vertex AI en el lenguaje de programación Move para el desarrollo asistido por IA, el soporte de zkLogin utilizando credenciales OAuth (Google) para un acceso simplificado e infraestructura que respalda el rendimiento y la escalabilidad de la red. La integración de ChainIDE de Alibaba Cloud permite indicaciones en lenguaje natural para la generación de código Move: los desarrolladores escriben "crear un contrato de staking con un 10% de APY" en inglés, chino o coreano, recibiendo código Move sintácticamente correcto, documentado y con verificaciones de seguridad. Este desarrollo asistido por IA democratiza la construcción de blockchains al tiempo que mantiene las garantías de seguridad de Move.

Las ventajas técnicas se acumulan para las aplicaciones de IA. Los modelos de propiedad de objetos se adaptan a agentes autónomos que operan de forma independiente. La ejecución paralela permite miles de operaciones de IA simultáneas sin interferencia. La finalidad en menos de un segundo admite experiencias de usuario interactivas. El almacenamiento de Walrus gestiona los conjuntos de datos de entrenamiento de forma económica. Las transacciones patrocinadas eliminan la fricción del gas para los usuarios. zkLogin elimina las barreras de las frases semilla. Los Bloques de Transacciones Programables orquestan flujos de trabajo complejos de forma atómica. Las opciones de verificación formal demuestran matemáticamente la corrección de los agentes de IA. Estas no son características desconectadas, sino capacidades integradas que forman un entorno de desarrollo coherente.

Comparando a los contendientes

El pico de 297.000 TPS de Sui y la latencia de consenso de 390 ms superan los 11.3 TPS promedio y la finalidad de 12-13 minutos de Ethereum por órdenes de magnitud. Frente a Solana —su competidor más cercano en rendimiento—, Sui logra una finalidad 32 veces más rápida (0.4 segundos frente a 12.8 segundos) a pesar de los tiempos de slot de 400 ms de Solana, porque Solana requiere múltiples confirmaciones para la finalidad económica. La medición en el mundo real del informe de agosto de 2025 de Phoenix Group mostró a Sui procesando 3.900 TPS frente a los 92.1 TPS de Solana, lo que refleja el rendimiento operativo en lugar del teórico. Los costos de transacción se mantienen predeciblemente bajos en Sui (promedio de ~$0.0087, menos de un centavo) sin los problemas históricos de congestión e interrupciones de Solana.

Las diferencias arquitectónicas explican las brechas de rendimiento. El modelo centrado en objetos de Sui permite una paralelización inherente: 300.000 transferencias simples por segundo no requieren coordinación de consenso. Ethereum y Bitcoin procesan cada transacción secuencialmente a través de un consenso completo. Solana paraleliza a través de Sealevel, pero utiliza una ejecución optimista que requiere verificación retroactiva. Aptos, que también utiliza el lenguaje Move, implementa la ejecución optimista Block-STM en lugar del método de acceso al estado de Sui. Para aplicaciones de IA y robótica que requieren una latencia baja predecible, la declaración explícita de dependencias de Sui proporciona un determinismo que los enfoques optimistas no pueden garantizar.

El posicionamiento cuántico diverge aún más drásticamente. Bitcoin y Ethereum utilizan firmas ECDSA secp256k1 sin una ruta de actualización compatible con versiones anteriores; la transición cuántica requiere bifurcaciones duras, cambios de dirección, migraciones de activos y una gobernanza comunitaria que probablemente cause divisiones en la cadena. Solana comparte la ventaja EdDSA de Sui, lo que permite estrategias de transición zk-STARK similares e introduce firmas de un solo uso basadas en hash Winternitz Vault. Near y Cosmos también se benefician de EdDSA. Aptos utiliza Ed25519, pero tiene una hoja de ruta de preparación cuántica menos desarrollada. El trabajo de investigación de Chalkias de julio de 2025 afirmó explícitamente que los hallazgos "funcionan para Sui, Solana, Near, Cosmos y otras cadenas basadas en EdDSA, pero no para Bitcoin y Ethereum".

La madurez del ecosistema favorece temporalmente a los competidores. Solana se lanzó en 2020 con protocolos DeFi establecidos, mercados de NFT y comunidades de desarrolladores. El lanzamiento de Ethereum en 2015 proporcionó ventajas de primer movimiento en contratos inteligentes, adopción institucional y efectos de red. Sui se lanzó en mayo de 2023 —apenas dos años y medio de antigüedad— con más de $2 mil millones en TVL y 65.900 direcciones activas que crecen rápidamente, pero muy por debajo de los 16.1 millones de Solana. La superioridad técnica crea una oportunidad: los desarrolladores que construyen en Sui hoy se posicionan para el crecimiento del ecosistema en lugar de unirse a plataformas maduras y saturadas. La entrevista de Chalkias en London Real reflejó esta confianza: "Honestamente, no me sorprendería en absoluto si Mysten Labs, y todo lo que toca, supera lo que Apple es hoy".

Sinergias entre visiones aparentemente dispares

Las narrativas de IA, robótica y resistencia cuántica parecen desconectadas hasta que se reconocen sus interdependencias técnicas. Los agentes de IA requieren baja latencia y alto rendimiento; Sui proporciona ambos. La coordinación robótica exige operaciones en tiempo real sin autoridad central; el modelo de objetos de Sui y la finalidad en menos de un segundo lo ofrecen. La seguridad post-cuántica necesita flexibilidad criptográfica y una arquitectura con visión de futuro; Sui la construyó desde el inicio. Estas no son líneas de productos separadas, sino requisitos técnicos unificados para el panorama tecnológico de 2030-2035.

Considere la fabricación autónoma: los sistemas de IA analizan las previsiones de demanda y la disponibilidad de materiales, determinando los programas de producción óptimos. Los agentes robóticos reciben instrucciones verificadas a través de la coordinación blockchain, asegurando la autenticidad sin control centralizado. Cada robot opera como un objeto propio que procesa tareas en paralelo, coordinándose a través de objetos compartidos cuando es necesario. Los micropagos se liquidan instantáneamente por los servicios prestados: el robot A proporciona materiales al robot B, el robot B procesa componentes para el robot C. El sistema funciona sin internet durante las interrupciones de conectividad, sincronizándose cuando se restablecen las redes. Y, lo que es fundamental, todas las comunicaciones permanecen seguras contra adversarios cuánticos a través de esquemas criptográficos post-cuánticos, protegiendo la propiedad intelectual y los datos operativos de ataques de "almacenar ahora, descifrar después".

La gestión de datos sanitarios ejemplifica otra convergencia. Los modelos de IA se entrenan con conjuntos de datos médicos almacenados en Walrus con pruebas criptográficas de disponibilidad. Las pruebas de conocimiento cero preservan la privacidad del paciente al tiempo que permiten la investigación. Los sistemas quirúrgicos robóticos se coordinan a través de la blockchain para las pistas de auditoría y la documentación de responsabilidad. El cifrado post-cuántico protege los registros médicos sensibles de amenazas a largo plazo. La capa de coordinación (la blockchain de Sui) permite el intercambio de datos institucionales sin confianza, la computación de IA sin comprometer la privacidad y una seguridad a prueba de futuro sin reemplazo periódico de la infraestructura.

La declaración de visión de Chalkias durante Sui Basecamp 2025 captura esta síntesis: posicionar a Sui como "fundamento para la próxima ola de sistemas inteligentes y descentralizados" con una "capacidad creciente para soportar aplicaciones nativas de IA y de computación intensiva". La arquitectura modular —Sui para la computación, Walrus para el almacenamiento, Scion para la conectividad, zkLogin para la identidad— crea lo que los miembros del equipo describen como un "sistema operativo de blockchain" en lugar de un libro mayor financiero estrecho. El modo sin internet, la criptografía cuántica segura y la finalidad en menos de un segundo no son listas de características, sino requisitos previos para sistemas autónomos que operan en entornos adversos con infraestructura poco fiable.

La metodología de innovación detrás del liderazgo técnico

Comprender el enfoque de Mysten Labs explica la consistencia en la ejecución. Chalkias articuló la filosofía durante su publicación de blog "Build Beyond": "Mysten Labs es realmente bueno para encontrar nuevas teorías en el espacio que nadie ha implementado, donde algunas de las suposiciones pueden no ser precisas. Pero lo estamos uniendo con la tecnología existente que tenemos, y eventualmente, esto nos impulsa a crear un producto novedoso". Esto describe un proceso sistemático: identificar la investigación académica con potencial práctico, desafiar suposiciones no probadas a través del rigor de la ingeniería, integrar con sistemas de producción y validar a través de la implementación.

El protocolo de consenso Mysticeti ejemplifica esto. La investigación académica estableció tres rondas de mensajes como el mínimo teórico para la confirmación del consenso bizantino. Las implementaciones anteriores requerían 1.5 viajes de ida y vuelta con firmas de quórum por bloque. Mysten Labs diseñó estructuras DAG no certificadas que eliminan la certificación explícita, implementó reglas de confirmación óptimas a través de patrones DAG en lugar de mecanismos de votación, y demostró una reducción del 80% en la latencia con respecto al consenso Narwhal-Bullshark anterior. El resultado: un artículo revisado por pares con pruebas formales acompañado de una implementación de producción que procesa miles de millones de transacciones.

Una metodología similar se aplica a la criptografía. BPQS (el esquema de firma post-cuántica de blockchain de Chalkias) adapta las firmas basadas en hash XMSS para las restricciones de blockchain. Winterfell implementa el primer probador STARK de código abierto que utiliza solo funciones hash para la seguridad post-cuántica. zkLogin combina la autenticación OAuth con pruebas de conocimiento cero, eliminando partes confiables adicionales mientras preserva la privacidad. Cada innovación aborda una barrera práctica (seguridad post-cuántica, accesibilidad de pruebas ZK, fricción en la incorporación de usuarios) a través de una construcción criptográfica novedosa respaldada por un análisis formal.

La composición del equipo refuerza esta capacidad. Ingenieros de Meta construyeron autenticación para miles de millones, de la NASA desarrollaron sistemas distribuidos críticos para la seguridad, de Uber escalaron la coordinación en tiempo real a nivel global. Chalkias aporta experiencia criptográfica de Facebook/Diem, R3/Corda e investigación académica. Este no es un equipo de startup tradicional que aprende sobre la marcha, sino veteranos que ejecutan sistemas que han construido antes, ahora sin las limitaciones de las prioridades corporativas. La financiación de $336 millones de a16z, Coinbase Ventures y Binance Labs refleja la confianza de los inversores en la capacidad de ejecución sobre la tecnología especulativa.

Desafíos y consideraciones más allá del bombo

La superioridad técnica no garantiza la adopción en el mercado, una lección aprendida repetidamente en la historia de la tecnología. Las 65.900 direcciones activas de Sui palidecen frente a los 16.1 millones de Solana a pesar de tener una tecnología posiblemente mejor. Los efectos de red se acumulan: los desarrolladores construyen donde los usuarios se congregan, los usuarios llegan donde existen aplicaciones, creando ventajas de bloqueo para las plataformas establecidas. La blockchain "más lenta y cara" de Ethereum acapara órdenes de magnitud más atención de los desarrolladores que las alternativas técnicamente superiores debido a su mera antigüedad.

El posicionamiento de "sistema operativo de blockchain" corre el riesgo de dilución: intentar sobresalir en finanzas, aplicaciones sociales, juegos, IA, robótica, IoT y almacenamiento descentralizado simultáneamente puede resultar en mediocridad en todos los dominios en lugar de excelencia en uno. Los críticos que señalan esta preocupación apuntan a una implementación limitada de robótica más allá de las pruebas de concepto, proyectos de IA principalmente en fase de especulación en lugar de utilidad de producción, y preparación de seguridad cuántica para amenazas a cinco o diez años de distancia. El contraargumento sostiene que los componentes modulares permiten un desarrollo enfocado: los equipos que construyen aplicaciones de IA utilizan la inferencia de Atoma y el almacenamiento de Walrus sin preocuparse por la integración robótica.

La criptografía post-cuántica introduce sobrecargas no triviales. Las firmas CRYSTALS-Dilithium miden 3.293 bytes en el nivel de seguridad 2 frente a los 64 bytes de Ed25519 —más de 50 veces más grandes. El ancho de banda de la red, los costos de almacenamiento y el tiempo de procesamiento aumentan proporcionalmente. Las mejoras en la verificación por lotes siguen siendo limitadas (aceleración del 20-50% frente a la verificación independiente) en comparación con el procesamiento por lotes eficiente de los esquemas clásicos. Los riesgos de migración incluyen errores del usuario durante la transición, coordinación entre los participantes del ecosistema (billeteras, dApps, exchanges), requisitos de compatibilidad con versiones anteriores y dificultad para realizar pruebas a escala sin computadoras cuánticas reales. La incertidumbre del cronograma agrava los desafíos de planificación: el progreso de la computación cuántica sigue siendo impredecible, los estándares del NIST continúan evolucionando y pueden surgir nuevos ataques criptoanalíticos contra los esquemas PQ.

El momento del mercado presenta quizás el mayor riesgo. Las ventajas de Sui se materializan de forma más dramática en el período 2030-2035: cuando las computadoras cuánticas amenacen la criptografía clásica, cuando proliferen los sistemas autónomos que requieran una coordinación sin confianza, cuando los agentes de IA gestionen un valor económico significativo que necesite una infraestructura segura. Si la adopción de blockchain se estanca antes de esta convergencia, el liderazgo técnico se vuelve irrelevante. Por el contrario, si la adopción explota antes, el ecosistema más nuevo de Sui puede carecer de aplicaciones y liquidez para atraer usuarios a pesar de un rendimiento superior. La tesis de inversión requiere creer no solo en la tecnología de Sui, sino en la alineación temporal entre la maduración de blockchain y la adopción de tecnologías emergentes.

La apuesta de una década por los primeros principios

Que Kostas Chalkias llamara a su hijo Kryptos no es una anécdota encantadora, sino una señal de la profundidad de su compromiso. Su trayectoria profesional —desde la investigación en IA hasta la criptografía, desde la publicación académica hasta los sistemas de producción en Meta, desde la blockchain empresarial en R3 hasta la arquitectura de Capa 1 en Mysten Labs— demuestra un enfoque constante en las tecnologías fundamentales a escala. El trabajo de resistencia cuántica comenzó antes del anuncio de Willow de Google, cuando la criptografía post-cuántica parecía una preocupación teórica. La integración robótica comenzó antes de que los agentes de IA alcanzaran valoraciones de miles de millones de dólares. Las decisiones arquitectónicas que permiten estas capacidades son anteriores al reconocimiento del mercado de su importancia.

Esta orientación prospectiva contrasta con el desarrollo reactivo común en el mundo de las criptomonedas. Ethereum introduce rollups de Capa 2 para abordar los cuellos de botella de escalado que surgen después de la implementación. Solana implementa la comunicación QUIC y QoS ponderado por participación en respuesta a interrupciones y congestión de la red. Bitcoin debate aumentos del tamaño de bloque y la adopción de Lightning Network a medida que aumentan las tarifas de transacción. Sui diseñó la ejecución paralela, los modelos de datos centrados en objetos y la agilidad criptográfica antes de lanzar la red principal, abordando los requisitos anticipados en lugar de los problemas descubiertos.

La cultura de investigación refuerza este enfoque. Mysten Labs publica artículos académicos con pruebas formales antes de reclamar capacidades. El artículo sobre el consenso Mysticeti apareció en publicaciones revisadas por pares con pruebas de corrección y puntos de referencia de rendimiento. La investigación sobre la transición cuántica presentada en el Archivo ePrint de la IACR demuestra las ventajas de EdDSA a través de la construcción matemática, no de afirmaciones de marketing. El artículo sobre zkLogin (arXiv 2401.11735) detalla la autenticación de conocimiento cero antes de la implementación. Chalkias mantiene contribuciones activas en GitHub (kchalkias), publica información técnica en LinkedIn y Twitter, presenta en talleres PQCSA sobre amenazas cuánticas y se relaciona sustantivamente con la comunidad criptográfica en lugar de promocionar exclusivamente a Sui.

La validación definitiva llegará en 5-10 años, cuando las computadoras cuánticas maduren, los sistemas autónomos proliferen y los agentes de IA gestionen economías de billones de dólares. Si Sui ejecuta consistentemente su hoja de ruta —desplegando firmas post-cuánticas antes de la fecha límite del NIST de 2030, demostrando la coordinación robótica a escala y soportando capas de inferencia de IA que procesan millones de solicitudes— se convertirá en la capa de infraestructura para tecnologías que remodelarán la civilización. Si las computadoras cuánticas llegan más tarde de lo previsto, la adopción autónoma se estanca o los competidores adaptan con éxito soluciones, las inversiones tempranas de Sui pueden resultar prematuras. La apuesta se centra no en la capacidad tecnológica —Sui demuestra el rendimiento prometido— sino en el momento del mercado y la urgencia del problema.

La perspectiva de Chalkias durante la Conferencia Emergence lo enmarca sucintamente: "Eventualmente, la blockchain superará incluso a Visa en velocidad de transacción. Será la norma. No veo cómo podemos escapar de esto". La afirmación de inevitabilidad asume una dirección técnica correcta, una calidad de ejecución suficiente y una sincronización adecuada. Sui se posiciona para capitalizar si estas suposiciones se mantienen. La arquitectura centrada en objetos, la agilidad criptográfica, la finalidad en menos de un segundo y la metodología de investigación sistemática no son adaptaciones, sino elecciones fundamentales diseñadas para el panorama tecnológico que surgirá en la próxima década. Ya sea que Sui capture el liderazgo del mercado o que estas capacidades se conviertan en un requisito básico en todas las blockchains, Kostas Chalkias y Mysten Labs están diseñando la infraestructura para la inteligencia autónoma de la era cuántica, un primitivo criptográfico, un milisegundo de reducción de latencia, un robot de prueba de concepto a la vez.

Mercados Descentralizados de Inferencia de IA: Bittensor, Gensyn y Cuckoo AI

· 86 min de lectura
Dora Noda
Software Engineer

Introducción

Los mercados descentralizados de inferencia/entrenamiento de IA buscan aprovechar los recursos de cómputo globales y los modelos comunitarios de una manera sin confianza (trustless). Proyectos como Bittensor, Gensyn y Cuckoo Network (Cuckoo AI) ilustran cómo la tecnología blockchain puede potenciar mercados abiertos de IA. Cada plataforma tokeniza activos clave de IA —poder de cómputo, modelos de aprendizaje automático y, a veces, datos— en unidades económicas en la cadena. A continuación, profundizamos en las arquitecturas técnicas que sustentan estas redes, cómo tokenizan los recursos, sus estructuras de gobernanza e incentivos, los métodos para rastrear la propiedad de los modelos, los mecanismos de reparto de ingresos y las superficies de ataque (por ejemplo, ataques Sybil, colusión, parasitismo, envenenamiento) que surgen. Una tabla comparativa al final resume todas las dimensiones clave entre Bittensor, Gensyn y Cuckoo AI.

Arquitecturas Técnicas

Bittensor: “Internet Neuronal” Descentralizado en Subredes

Bittensor está construido sobre una blockchain de Capa 1 personalizada (la cadena Subtensor, basada en Substrate) que coordina una red de nodos de modelos de IA a través de muchas subredes especializadas. Cada subred es una minirred independiente que se enfoca en una tarea de IA particular (por ejemplo, una subred para la generación de lenguaje, otra para la generación de imágenes, etc.). Los participantes en Bittensor asumen roles distintos:

  • Mineros – ejecutan modelos de aprendizaje automático en su hardware y proporcionan respuestas de inferencia (o incluso realizan entrenamiento) para la tarea de la subred. En esencia, un minero es un nodo que aloja un modelo de IA que responderá a las consultas.
  • Validadores – consultan los modelos de los mineros con prompts y evalúan la calidad de las respuestas, formando una opinión sobre qué mineros están contribuyendo con resultados valiosos. Los validadores califican efectivamente el rendimiento de los mineros.
  • Propietarios de Subred – crean y definen subredes, estableciendo las reglas sobre qué tareas se realizan y cómo se lleva a cabo la validación en esa subred. Un propietario de subred podría, por ejemplo, especificar que una subred es para un cierto conjunto de datos o modalidad y definir el procedimiento de validación.
  • Delegadores – los poseedores de tokens que no ejecutan nodos pueden delegar (hacer stake) sus tokens de Bittensor (TAO) a mineros o validadores para respaldar a los de mejor rendimiento y ganar una parte de las recompensas (similar al staking en redes de prueba de participación).

El mecanismo de consenso de Bittensor es novedoso: en lugar de la validación de bloques tradicional, Bittensor utiliza el consenso Yuma, que es una forma de "prueba de inteligencia". En el consenso Yuma, las evaluaciones de los validadores sobre los mineros se agregan en la cadena para determinar la distribución de recompensas. Cada bloque de 12 segundos, la red acuña nuevos tokens TAO y los distribuye según el consenso de los validadores sobre qué mineros proporcionaron trabajo útil. Las puntuaciones de los validadores se combinan en un esquema de mediana ponderada por participación (stake): las opiniones atípicas se recortan y prevalece la opinión de la mayoría honesta. Esto significa que si la mayoría de los validadores están de acuerdo en que un minero fue de alta calidad, ese minero obtendrá una fuerte recompensa; si un validador se desvía mucho de los demás (posiblemente debido a colusión o error), ese validador es penalizado ganando menos. De esta manera, la blockchain de Bittensor coordina un bucle de retroalimentación minero-validador: los mineros compiten para producir los mejores resultados de IA, y los validadores curan y clasifican esos resultados, ganando ambas partes tokens proporcionales al valor que agregan. Esta arquitectura a menudo se describe como una "red neuronal descentralizada" o "cerebro global", donde los modelos aprenden de las señales de los demás y evolucionan colectivamente. Notablemente, Bittensor actualizó recientemente su cadena para admitir la compatibilidad con EVM (para contratos inteligentes) e introdujo dTAO, un sistema de tokens y staking específicos de subred (explicado más adelante) para descentralizar aún más el control de la asignación de recursos.

Gensyn: Protocolo de Cómputo Distribuido sin Confianza (Trustless)

Gensyn aborda la IA descentralizada desde el ángulo de un protocolo de computación distribuida para el aprendizaje automático. Su arquitectura conecta a desarrolladores (solicitantes) que tienen tareas de IA (como entrenar un modelo o ejecutar un trabajo de inferencia) con proveedores de cómputo (resolutores) de todo el mundo que tienen recursos de GPU/TPU de sobra. Originalmente, Gensyn planeaba una cadena L1 en Substrate, pero giró hacia la construcción en Ethereum como un rollup para una mayor seguridad y liquidez. La red Gensyn es, por lo tanto, una Capa 2 de Ethereum (un rollup de Ethereum) que coordina la publicación de trabajos y los pagos, mientras que la computación ocurre fuera de la cadena en el hardware de los proveedores.

Una innovación central del diseño de Gensyn es su sistema de verificación para el trabajo fuera de la cadena. Gensyn utiliza una combinación de verificación optimista (pruebas de fraude) y técnicas criptográficas para garantizar que cuando un resolutor afirma haber ejecutado una tarea de entrenamiento/inferencia, el resultado sea correcto. En la práctica, el protocolo involucra múltiples roles de participantes:

  • Solicitante – la parte que solicita un trabajo (por ejemplo, alguien que necesita entrenar un modelo). Pagan la tarifa de la red y proporcionan el modelo/datos o la especificación de la tarea.
  • Resolutor – un nodo que puja y ejecuta la tarea de ML en su hardware. Entrenarán el modelo o ejecutarán la inferencia según lo solicitado, luego enviarán los resultados y una prueba de computación.
  • Verificador/Desafiador – nodos que pueden auditar o verificar aleatoriamente el trabajo del resolutor. Gensyn implementa un esquema al estilo de Truebit donde, por defecto, el resultado de un resolutor se acepta, pero un verificador puede desafiarlo dentro de una ventana si sospecha una computación incorrecta. En un desafío, se utiliza una "búsqueda binaria" interactiva a través de los pasos de la computación (un protocolo de prueba de fraude) para señalar cualquier discrepancia. Esto permite que la cadena resuelva disputas realizando solo una parte crítica mínima de la computación en la cadena, en lugar de rehacer toda la costosa tarea.

Crucialmente, Gensyn está diseñado para evitar la redundancia masiva de los enfoques ingenuos. En lugar de tener muchos nodos repitiendo el mismo trabajo de ML (lo que destruiría los ahorros de costos), el enfoque de "prueba de aprendizaje" de Gensyn utiliza metadatos de entrenamiento para verificar que se ha progresado en el aprendizaje. Por ejemplo, un resolutor podría proporcionar hashes criptográficos o puntos de control de los pesos intermedios del modelo y una prueba sucinta de que estos progresaron de acuerdo con las actualizaciones de entrenamiento. Esta prueba probabilística de aprendizaje se puede verificar de manera mucho más económica que volver a ejecutar todo el entrenamiento, lo que permite una verificación sin confianza sin replicación completa. Solo si un verificador detecta una anomalía se activaría una computación más pesada en la cadena como último recurso. Este enfoque reduce drásticamente la sobrecarga en comparación con la verificación por fuerza bruta, haciendo que el entrenamiento de ML descentralizado sea más factible. La arquitectura de Gensyn, por lo tanto, enfatiza fuertemente el diseño de juegos criptoeconómicos: los resolutores depositan una participación o fianza, y si hacen trampa (enviando resultados incorrectos), pierden esa participación a favor de los verificadores honestos que los atrapan. Al combinar la coordinación de la blockchain (para pagos y resolución de disputas) con el cómputo fuera de la cadena y una verificación inteligente, Gensyn crea un mercado para el cómputo de ML que puede aprovechar las GPU inactivas en cualquier lugar mientras mantiene la falta de confianza. El resultado es un "protocolo de cómputo" a hiperescala donde cualquier desarrollador puede acceder a un poder de entrenamiento asequible y distribuido globalmente bajo demanda.

Cuckoo AI: Plataforma de Servicios de IA Descentralizada Full-Stack

Cuckoo Network (o Cuckoo AI) adopta un enfoque más integrado verticalmente, con el objetivo de proporcionar servicios de IA descentralizados de extremo a extremo en lugar de solo cómputo en bruto. Cuckoo construyó su propia blockchain (inicialmente una Capa 1 llamada Cuckoo Chain en Arbitrum Orbit, un marco de rollup compatible con Ethereum) para orquestar todo: no solo empareja trabajos con GPU, sino que también aloja aplicaciones de IA y maneja pagos en un solo sistema. El diseño es full-stack: combina una blockchain para transacciones y gobernanza, una capa de recursos de GPU/CPU descentralizada y aplicaciones y API de IA orientadas al usuario en la parte superior. En otras palabras, Cuckoo integra las tres capas —blockchain, cómputo y aplicación de IA— dentro de una única plataforma.

Los participantes en Cuckoo se dividen en cuatro grupos:

  • Constructores de Aplicaciones de IA (Coordinadores) – son desarrolladores que despliegan modelos o servicios de IA en Cuckoo. Por ejemplo, un desarrollador podría alojar un generador de imágenes Stable Diffusion o un chatbot LLM como servicio. Ejecutan Nodos Coordinadores, que son responsables de gestionar su servicio: aceptar solicitudes de usuarios, dividirlas en tareas y asignar esas tareas a los mineros. Los coordinadores hacen stake del token nativo ($CAI) para unirse a la red y obtener el derecho a utilizar mineros. Esencialmente, actúan como orquestadores de capa 2 que interactúan entre los usuarios y los proveedores de GPU.
  • Mineros de GPU/CPU (Nodos de Tarea) – son los proveedores de recursos. Los mineros ejecutan el cliente de tareas de Cuckoo y contribuyen con su hardware para realizar tareas de inferencia para las aplicaciones de IA. Por ejemplo, a un minero se le podría asignar una solicitud de generación de imágenes (con un modelo y prompt dados) por parte de un coordinador y usar su GPU para calcular el resultado. Los mineros también deben hacer stake de $CAI para garantizar el compromiso y el buen comportamiento. Ganan recompensas en tokens por cada tarea que completan correctamente.
  • Usuarios Finales – los consumidores de las aplicaciones de IA. Interactúan a través del portal web o las API de Cuckoo (por ejemplo, generando arte a través de CooVerse o chateando con personalidades de IA). Los usuarios pueden pagar con criptomonedas por cada uso o posiblemente contribuir con su propio cómputo (o stake) para compensar los costos de uso. Un aspecto importante es la resistencia a la censura: si un coordinador (proveedor de servicios) es bloqueado o se cae, los usuarios pueden cambiar a otro que sirva la misma aplicación, ya que múltiples coordinadores podrían alojar modelos similares en la red descentralizada.
  • Stakers (Delegadores) – los miembros de la comunidad que no ejecutan servicios de IA o hardware de minería aún pueden participar haciendo stake de $CAI en aquellos que sí lo hacen. Al votar con su stake en coordinadores o mineros de confianza, ayudan a señalar la reputación y, a cambio, ganan una parte de las recompensas de la red. Este diseño construye una capa de reputación Web3: los buenos actores atraen más stake (y por lo tanto, confianza y recompensas), mientras que los malos actores pierden stake y reputación. Incluso los usuarios finales pueden hacer stake en algunos casos, alineándolos con el éxito de la red.

La cadena Cuckoo (ahora en proceso de transición de una cadena independiente a un rollup de seguridad compartida) rastrea todas estas interacciones. Cuando un usuario invoca un servicio de IA, el nodo coordinador crea asignaciones de tareas en la cadena para los mineros. Los mineros ejecutan las tareas fuera de la cadena y devuelven los resultados al coordinador, que los valida (por ejemplo, verificando que la imagen o el texto de salida no sean galimatías) y entrega el resultado final al usuario. La blockchain se encarga de la liquidación de pagos: por cada tarea, el contrato inteligente del coordinador paga al minero en $CAI (a menudo agregando micropagos en pagos diarios). Cuckoo enfatiza la falta de confianza y la transparencia – todos los participantes hacen stake de tokens y todas las asignaciones y finalizaciones de tareas se registran, por lo que se desalienta el engaño por la amenaza de perder el stake y por la visibilidad pública del rendimiento. El diseño modular de la red significa que se pueden agregar fácilmente nuevos modelos de IA o casos de uso: aunque comenzó con la generación de texto a imagen como prueba de concepto, su arquitectura es lo suficientemente general como para admitir otras cargas de trabajo de IA (por ejemplo, inferencia de modelos de lenguaje, transcripción de audio, etc.).

Un aspecto notable de la arquitectura de Cuckoo es que inicialmente lanzó su propia blockchain de Capa 1 para maximizar el rendimiento de las transacciones de IA (alcanzando un pico de 300k transacciones diarias durante las pruebas). Esto permitió optimizaciones personalizadas para la programación de tareas de IA. Sin embargo, el equipo encontró que mantener una L1 independiente era costoso y complejo, y a mediados de 2025 decidieron descontinuar la cadena personalizada y migrar a un modelo de rollup/AVS (Servicio Validado Activo) en Ethereum. Esto significa que Cuckoo heredará la seguridad de Ethereum o de una L2 como Arbitrum, en lugar de ejecutar su propio consenso, pero continuará operando su mercado de IA descentralizado en esa capa de seguridad compartida. El cambio tiene como objetivo mejorar la seguridad económica (aprovechando la robustez de Ethereum) y permitir que el equipo de Cuckoo se concentre en el producto en lugar del mantenimiento de la cadena de bajo nivel. En resumen, la arquitectura de Cuckoo crea una plataforma de servicio de IA descentralizada donde cualquiera puede conectar hardware o desplegar un servicio de modelo de IA, y los usuarios de todo el mundo pueden acceder a aplicaciones de IA con un costo menor y menos dependencia de la infraestructura de las grandes tecnológicas.

Mecanismos de Tokenización de Activos

Un tema común en estas redes es la conversión de cómputo, modelos y datos en activos en la cadena o unidades económicas que pueden ser comercializadas o monetizadas. Sin embargo, cada proyecto se enfoca en tokenizar estos recursos de diferentes maneras:

  • Poder de Cómputo: Las tres plataformas convierten el trabajo de cómputo en tokens de recompensa. En Bittensor, la computación útil (inferencia o entrenamiento realizado por un minero) se cuantifica a través de las puntuaciones de los validadores y se recompensa con tokens TAO en cada bloque. Esencialmente, Bittensor "mide" la inteligencia aportada y acuña TAO como una mercancía que representa esa contribución. Gensyn trata explícitamente el cómputo como una mercancía – su protocolo crea un mercado donde el tiempo de GPU es el producto, y el precio se establece por la oferta y la demanda en términos de tokens. Los desarrolladores compran cómputo usando el token, y los proveedores ganan tokens vendiendo los ciclos de su hardware. El equipo de Gensyn señala que cualquier recurso digital (cómputo, datos, algoritmos) puede ser representado y comercializado en un mercado sin confianza similar. Cuckoo tokeniza el cómputo a través de un token ERC-20 $CAI emitido como pago por tareas completadas. Los proveedores de GPU esencialmente "minan" CAI al realizar trabajos de inferencia de IA. El sistema de Cuckoo crea registros en la cadena de las tareas, por lo que se puede pensar en cada tarea de GPU completada como una unidad atómica de trabajo que se paga en tokens. La premisa en los tres es que el poder de cómputo, que de otro modo estaría inactivo o inaccesible, se convierte en un activo tokenizado y líquido, ya sea a través de emisiones de tokens a nivel de protocolo (como en Bittensor y el Cuckoo inicial) o a través de un mercado abierto de órdenes de compra/venta para trabajos de cómputo (como en Gensyn).

  • Modelos de IA: Representar los modelos de IA como activos en la cadena (por ejemplo, NFT o tokens) todavía es incipiente. Bittensor no tokeniza los modelos en sí mismos; los modelos permanecen fuera de la cadena bajo la propiedad de los mineros. En cambio, Bittensor valora indirectamente los modelos al recompensar a los que tienen un buen rendimiento. En efecto, la "inteligencia" de un modelo se convierte en ganancias de TAO, pero no hay un NFT que represente los pesos del modelo o permita a otros usarlo. El enfoque de Gensyn está en las transacciones de cómputo, no explícitamente en la creación de tokens para modelos. Un modelo en Gensyn es típicamente proporcionado por un desarrollador fuera de la cadena (quizás de código abierto o propietario), entrenado por resolutores y devuelto; no hay un mecanismo incorporado para crear un token que posea el modelo o su propiedad intelectual. (Dicho esto, el mercado de Gensyn podría facilitar potencialmente el comercio de artefactos o puntos de control de modelos si las partes lo eligen, pero el protocolo en sí ve los modelos como el contenido de la computación en lugar de un activo tokenizado). Cuckoo se encuentra en un punto intermedio: habla de "agentes de IA" y modelos integrados en la red, pero actualmente no hay un token no fungible que represente cada modelo. En cambio, un modelo es desplegado por un constructor de aplicaciones y luego servido a través de la red. Los derechos de uso de ese modelo se tokenizan implícitamente en el sentido de que el modelo puede ganar $CAI cuando se utiliza (a través del coordinador que lo despliega). Las tres plataformas reconocen el concepto de tokenización de modelos —por ejemplo, dar a las comunidades la propiedad de los modelos a través de tokens— pero las implementaciones prácticas son limitadas. Como industria, la tokenización de modelos de IA (por ejemplo, como NFT con derechos de propiedad y participación en los beneficios) todavía se está explorando. El enfoque de Bittensor de que los modelos intercambien valor entre sí es una forma de "mercado de modelos" sin un token explícito por modelo. El equipo de Cuckoo señala que la propiedad descentralizada de modelos es prometedora para reducir las barreras frente a la IA centralizada, pero requiere métodos efectivos para verificar los resultados y el uso de los modelos en la cadena. En resumen, el poder de cómputo se tokeniza inmediatamente (es sencillo pagar tokens por el trabajo realizado), mientras que los modelos se tokenizan indirecta o aspiracionalmente (recompensados por sus resultados, posiblemente representados por stake o reputación, pero aún no tratados como NFT transferibles en estas plataformas).

  • Datos: La tokenización de datos sigue siendo lo más difícil. Ninguno de los proyectos, Bittensor, Gensyn o Cuckoo, tiene mercados de datos en la cadena completamente generalizados e integrados (donde los conjuntos de datos se comercializan con derechos de uso exigibles). Los nodos de Bittensor pueden entrenar con varios conjuntos de datos, pero esos conjuntos de datos no forman parte del sistema en la cadena. Gensyn podría permitir que un desarrollador proporcione un conjunto de datos para el entrenamiento, pero el protocolo no tokeniza esos datos; simplemente se proporcionan fuera de la cadena para que el resolutor los use. Cuckoo tampoco tokeniza los datos del usuario; maneja principalmente los datos (como los prompts o resultados del usuario) de manera transitoria para las tareas de inferencia. El blog de Cuckoo declara explícitamente que "los datos descentralizados siguen siendo difíciles de tokenizar" a pesar de ser un recurso crítico. Los datos son sensibles (problemas de privacidad y propiedad) y difíciles de manejar con la tecnología blockchain actual. Por lo tanto, mientras que el cómputo se está mercantilizando y los modelos comienzan a serlo, los datos permanecen en gran medida fuera de la cadena, excepto en casos especiales (algunos proyectos fuera de estos tres están experimentando con uniones de datos y recompensas en tokens por contribuciones de datos, pero eso está fuera de nuestro alcance actual). En resumen, el poder de cómputo es ahora una mercancía en la cadena en estas redes, los modelos se valoran a través de tokens pero aún no se tokenizan individualmente como activos, y la tokenización de datos sigue siendo un problema abierto (más allá de reconocer su importancia).

Gobernanza e Incentivos

Un diseño robusto de gobernanza e incentivos es crucial para que estas redes de IA descentralizadas funcionen de manera autónoma y justa. Aquí examinamos cómo cada plataforma se gobierna a sí misma (quién toma las decisiones, cómo ocurren las actualizaciones o los cambios de parámetros) y cómo alinean los incentivos de los participantes a través de la economía de tokens.

  • Gobernanza de Bittensor: En sus primeras etapas, el desarrollo y los parámetros de las subredes de Bittensor estaban en gran medida controlados por el equipo central y un conjunto de 64 validadores "raíz" en la subred principal. Esto era un punto de centralización: unos pocos validadores poderosos tenían una influencia desproporcionada en la asignación de recompensas, lo que llevó a lo que algunos llamaron un "sistema de votación oligárquico". Para abordar esto, Bittensor introdujo la gobernanza dTAO (TAO descentralizado) en 2025. El sistema dTAO cambió la asignación de recursos para que fuera impulsada por el mercado y controlada por la comunidad. Concretamente, los poseedores de TAO pueden hacer stake de sus tokens en pools de liquidez específicos de subred (esencialmente, "votan" sobre qué subredes deberían obtener más emisiones de la red) y reciben tokens alfa que representan la propiedad en esos pools de subred. Las subredes que atraen más stake tendrán un precio de token alfa más alto y obtendrán una mayor parte de la emisión diaria de TAO, mientras que las subredes impopulares o de bajo rendimiento verán cómo el capital (y por lo tanto las emisiones) se aleja. Esto crea un bucle de retroalimentación: si una subred produce servicios de IA valiosos, más personas hacen stake de TAO en ella (buscando recompensas), lo que le da a esa subred más TAO para recompensar a sus participantes, fomentando el crecimiento. Si una subred se estanca, los stakers se retiran a subredes más lucrativas. En efecto, los poseedores de TAO gobiernan colectivamente el enfoque de la red al señalar financieramente qué dominios de IA merecen más recursos. Esta es una forma de gobernanza en la cadena por peso de token, alineada con los resultados económicos. Aparte de la asignación de recursos, las principales actualizaciones del protocolo o los cambios de parámetros probablemente todavía pasan por propuestas de gobernanza donde los poseedores de TAO votan (Bittensor tiene un mecanismo para propuestas y referendos en la cadena gestionados por la Fundación Bittensor y un consejo electo, similar a la gobernanza de Polkadot). Con el tiempo, se puede esperar que la gobernanza de Bittensor se vuelva cada vez más descentralizada, con la fundación dando un paso atrás a medida que la comunidad (a través del stake de TAO) dirige cosas como la tasa de inflación, la aprobación de nuevas subredes, etc. La transición a dTAO es un gran paso en esa dirección, reemplazando a los tomadores de decisiones centralizados con un mercado de partes interesadas de tokens alineado con incentivos.

  • Incentivos de Bittensor: La estructura de incentivos de Bittensor está estrechamente entrelazada con su consenso. Cada bloque (12 segundos), se acuña exactamente 1 TAO nuevo y se divide entre los contribuyentes de cada subred según el rendimiento. La división predeterminada para la recompensa de bloque de cada subred es 41 % para los mineros, 41 % para los validadores y 18 % para el propietario de la subred. Esto asegura que todos los roles sean recompensados: los mineros ganan por hacer el trabajo de inferencia, los validadores ganan por su esfuerzo de evaluación, y los propietarios de subredes (que pueden haber iniciado los datos/tarea para esa subred) ganan un residual por proporcionar el "mercado" o el diseño de la tarea. Esos porcentajes están fijados en el protocolo y tienen como objetivo alinear los incentivos de todos hacia una producción de IA de alta calidad. El mecanismo de consenso Yuma refina aún más los incentivos al ponderar las recompensas según las puntuaciones de calidad: un minero que proporciona mejores respuestas (según el consenso de los validadores) obtiene una porción mayor de ese 41 %, y un validador que sigue de cerca el consenso honesto obtiene más de la porción del validador. Los de bajo rendimiento son eliminados económicamente. Además, los delegadores (stakers) que respaldan a un minero o validador generalmente recibirán una parte de las ganancias de ese nodo (los nodos a menudo establecen una comisión y dan el resto a sus delegadores, similar al staking en redes PoS). Esto permite a los poseedores pasivos de TAO apoyar a los mejores contribuyentes y obtener rendimiento, reforzando aún más la meritocracia. El token de Bittensor (TAO) es, por lo tanto, un token de utilidad: se requiere para el registro de nuevos mineros (los mineros deben gastar una pequeña cantidad de TAO para unirse, lo que combate el spam Sybil) y se puede hacer stake para aumentar la influencia o ganar a través de la delegación. También se prevé como un token de pago si los usuarios externos quieren consumir servicios de la red de Bittensor (por ejemplo, pagando TAO para consultar un modelo de lenguaje en Bittensor), aunque el mecanismo de recompensa interno ha sido la "economía" principal hasta ahora. La filosofía general de incentivos es recompensar la "inteligencia valiosa" —es decir, modelos que ayudan a producir buenos resultados de IA— y crear una competencia que mejore continuamente la calidad de los modelos en la red.

  • Gobernanza de Gensyn: El modelo de gobernanza de Gensyn está estructurado para evolucionar desde el control del equipo central al control de la comunidad a medida que la red madura. Inicialmente, Gensyn tendrá una Fundación Gensyn y un consejo electo que supervisarán las actualizaciones del protocolo y las decisiones del tesoro. Se espera que este consejo esté compuesto por miembros del equipo central y líderes comunitarios tempranos al principio. Gensyn planea un Evento de Generación de Tokens (TGE) para su token nativo (a menudo referido como GENS), después del cual el poder de gobernanza estaría cada vez más en manos de los poseedores de tokens a través de la votación en la cadena. El papel de la fundación es representar los intereses del protocolo y asegurar una transición suave hacia la descentralización total. En la práctica, Gensyn probablemente tendrá mecanismos de propuesta en la cadena donde los cambios en los parámetros (por ejemplo, la duración del juego de verificación, las tasas de comisión) o las actualizaciones se votan por la comunidad. Debido a que Gensyn se está implementando como un rollup de Ethereum, la gobernanza también podría vincularse a la seguridad de Ethereum (por ejemplo, usando claves de actualización para el contrato del rollup que eventualmente se entregan a una DAO de poseedores de tokens). La sección de descentralización y gobernanza del litepaper de Gensyn enfatiza que el protocolo debe ser en última instancia de propiedad global, alineándose con el ethos de que la "red para la inteligencia de máquinas" debería pertenecer a sus usuarios y contribuyentes. En resumen, la gobernanza de Gensyn comienza semi-centralizada pero está diseñada para convertirse en una DAO donde los poseedores de tokens GENS (potencialmente ponderados por stake o participación) toman decisiones colectivamente.

  • Incentivos de Gensyn: Los incentivos económicos en Gensyn son dinámicas de mercado sencillas complementadas con seguridad criptoeconómica. Los desarrolladores (clientes) pagan por las tareas de ML en el token de Gensyn, y los Resolutores ganan tokens al completar esas tareas correctamente. El precio de los ciclos de cómputo se determina en un mercado abierto; presumiblemente, los desarrolladores pueden publicar tareas con una recompensa y los resolutores pueden pujar o simplemente tomarla si el precio cumple con sus expectativas. Esto asegura que mientras haya oferta de GPU inactivas, la competencia reducirá el costo a una tasa justa (el equipo de Gensyn proyecta una reducción de costos de hasta el 80 % en comparación con los precios de la nube, ya que la red encuentra el hardware disponible más barato a nivel mundial). Por otro lado, los resolutores tienen el incentivo de ganar tokens por su trabajo; su hardware que de otro modo estaría inactivo ahora genera ingresos. Para garantizar la calidad, Gensyn requiere que los resolutores hagan stake de una garantía cuando aceptan un trabajo: si hacen trampa o producen un resultado incorrecto y son atrapados, pierden esa garantía (puede ser recortada y otorgada al verificador honesto). Los verificadores son incentivados por la posibilidad de ganar una recompensa "jackpot" si atrapan a un resolutor fraudulento, similar al diseño de Truebit de recompensar periódicamente a los verificadores que identifican con éxito una computación incorrecta. Esto mantiene a los resolutores honestos y motiva a algunos nodos a actuar como vigilantes. En un escenario óptimo (sin trampas), los resolutores simplemente ganan la tarifa de la tarea y el rol de verificador está mayormente inactivo (o uno de los resolutores participantes podría actuar también como verificador de otros). El token de Gensyn sirve así tanto como moneda de gas para comprar cómputo como garantía de stake que asegura el protocolo. El litepaper menciona una testnet con tokens no permanentes y que los participantes tempranos de la testnet serán recompensados en el TGE con tokens reales. Esto indica que Gensyn asignó parte del suministro de tokens para el arranque —recompensando a los primeros adoptantes, resolutores de prueba y miembros de la comunidad. A largo plazo, las tarifas de los trabajos reales deberían sostener la red. También puede haber una pequeña tarifa de protocolo (un porcentaje de cada pago de tarea) que va a un tesoro o se quema; este detalle aún no está confirmado, pero muchos protocolos de mercado incluyen una tarifa para financiar el desarrollo o la recompra y quema de tokens. En resumen, los incentivos de Gensyn se alinean en torno a la finalización honesta de los trabajos de ML: haz el trabajo, te pagan; intenta hacer trampa, pierdes el stake; verifica a otros, ganas si atrapas a los tramposos. Esto crea un sistema económico de autovigilancia destinado a lograr una computación distribuida confiable.

  • Gobernanza de Cuckoo: Cuckoo Network incorporó la gobernanza en su ecosistema desde el primer día, aunque todavía está en fase de desarrollo. El token CAIesexplıˊcitamenteuntokendegobernanzaademaˊsdesusrolesdeutilidad.LafilosofıˊadeCuckooesquelosoperadoresdenodosdeGPU,losdesarrolladoresdeaplicacioneseinclusolosusuariosfinalesdeberıˊantenervozenlaevolucioˊndelared,loquereflejasuvisioˊnimpulsadaporlacomunidad.Enlapraˊctica,lasdecisionesimportantes(comoactualizacionesdelprotocoloocambioseconoˊmicos)sedecidirıˊanmediantevotosponderadosportokens,presumiblementeatraveˊsdeunmecanismodeDAO.Porejemplo,Cuckoopodrıˊarealizarvotacionesenlacadenaparacambiarladistribucioˊnderecompensasoadoptarunanuevacaracterıˊstica,ylosposeedoresdeCAI es explícitamente un token de gobernanza además de sus roles de utilidad. La filosofía de Cuckoo es que los operadores de nodos de GPU, los desarrolladores de aplicaciones e incluso los usuarios finales deberían tener voz en la evolución de la red, lo que refleja su visión impulsada por la comunidad. En la práctica, las decisiones importantes (como actualizaciones del protocolo o cambios económicos) se decidirían mediante votos ponderados por tokens, presumiblemente a través de un mecanismo de DAO. Por ejemplo, Cuckoo podría realizar votaciones en la cadena para cambiar la distribución de recompensas o adoptar una nueva característica, y los poseedores de CAI (incluidos mineros, desarrolladores y usuarios) votarían. La votación en la cadena ya se utiliza como un sistema de reputación: Cuckoo requiere que cada rol haga stake de tokens, y luego los miembros de la comunidad pueden votar (quizás delegando stake o a través de módulos de gobernanza) sobre qué coordinadores o mineros son de confianza. Esto afecta las puntuaciones de reputación y podría influir en la programación de tareas (por ejemplo, un coordinador con más votos podría atraer a más usuarios, o un minero con más votos podría recibir más tareas). Es una mezcla de gobernanza e incentivo: usar tokens de gobernanza para establecer la confianza. La Fundación Cuckoo o el equipo central ha guiado la dirección del proyecto hasta ahora (por ejemplo, tomando la reciente decisión de descontinuar la cadena L1), pero su blog indica un compromiso de avanzar hacia la propiedad descentralizada. Identificaron que operar su propia cadena incurría en altos costos generales y que pivotar hacia un rollup permitirá un desarrollo más abierto y la integración con los ecosistemas existentes. Es probable que una vez en una capa compartida (como Ethereum), Cuckoo implemente una DAO más tradicional para las actualizaciones, con la comunidad votando usando CAI.

  • Incentivos de Cuckoo: El diseño de incentivos para Cuckoo tiene dos fases: la fase inicial de arranque con asignaciones de tokens fijas, y un estado futuro con reparto de ingresos impulsado por el uso. En su lanzamiento, Cuckoo realizó una distribución de "lanzamiento justo" de 1 mil millones de tokens CAI. El 51 % del suministro se reservó para la comunidad, asignado como:

  • Recompensas de Minería: 30 % del suministro total reservado para pagar a los mineros de GPU por realizar tareas de IA.

  • Recompensas de Staking: 11 % del suministro para aquellos que hacen stake y ayudan a asegurar la red.

  • Airdrops: 5 % para los primeros usuarios y miembros de la comunidad como incentivo de adopción.

  • (Otro 5 % fue para subvenciones a desarrolladores para fomentar la construcción en Cuckoo).

Esta gran asignación significa que en la red inicial, los mineros y stakers fueron recompensados de un pool de emisiones, incluso si la demanda real de los usuarios era baja. De hecho, la fase inicial de Cuckoo presentó altos rendimientos APY para el staking y la minería, lo que atrajo con éxito a los participantes, pero también a los "yield farmers" que solo estaban allí por los tokens. El equipo notó que muchos usuarios se fueron una vez que las tasas de recompensa cayeron, lo que indica que esos incentivos no estaban ligados a un uso genuino. Habiendo aprendido de esto, Cuckoo está cambiando a un modelo donde las recompensas se correlacionan directamente con la carga de trabajo real de IA. En el futuro (y parcialmente ya), cuando un usuario final paga por una inferencia de IA, ese pago (en CAI o posiblemente otro token aceptado convertido a CAI) se dividirá entre los contribuyentes:

  • Los mineros de GPU recibirán la mayor parte por el cómputo que proporcionaron.
  • El Coordinador (desarrollador de la aplicación) tomará una porción como el proveedor de servicios que suministró el modelo y manejó la solicitud.
  • Los Stakers que han delegado a esos mineros o coordinadores podrían obtener una pequeña parte o una recompensa inflacionaria, para continuar incentivando el respaldo de nodos confiables.
  • La Red/Tesorería podría retener una tarifa para el desarrollo continuo o para financiar futuros incentivos (o la tarifa podría ser cero/nominal para maximizar la asequibilidad para el usuario).

Esencialmente, Cuckoo se está moviendo hacia un modelo de reparto de ingresos: si una aplicación de IA en Cuckoo genera ganancias, esas ganancias se distribuyen a todos los contribuyentes de ese servicio de manera justa. Esto alinea los incentivos para que los participantes se beneficien del uso real en lugar de solo de la inflación. La red ya requería que todas las partes hicieran stake de CAI; esto significa que los mineros y coordinadores no solo ganan una recompensa plana, sino también posiblemente recompensas basadas en el stake (por ejemplo, un coordinador podría ganar mayores recompensas si muchos usuarios hacen stake en ellos o si ellos mismos hacen más stake, similar a cómo ganan los validadores de prueba de participación). En cuanto a los incentivos para los usuarios, Cuckoo también introdujo cosas como un portal de airdrops y faucets (que algunos usuarios explotaron) para sembrar la actividad inicial. En el futuro, los usuarios podrían ser incentivados a través de reembolsos en tokens por usar los servicios o a través de recompensas de gobernanza por participar en la curación (por ejemplo, quizás ganando pequeños tokens por calificar resultados o contribuir con datos). La conclusión es que el token de Cuckoo ($CAI) es multipropósito: es el token de gas/tarifa en la cadena (todas las transacciones y pagos lo usan), se usa para staking y votación, y es la unidad de recompensa por el trabajo realizado. Cuckoo menciona explícitamente que quiere vincular las recompensas de tokens a KPIs a nivel de servicio (indicadores clave de rendimiento) —por ejemplo, tiempo de actividad, rendimiento de consultas, satisfacción del usuario— para evitar incentivos puramente especulativos. Esto refleja una maduración de la economía de tokens desde la simple minería de liquidez a un modelo más sostenible e impulsado por la utilidad.

Propiedad de Modelos y Atribución de PI

Manejar la propiedad intelectual (PI) y los derechos de propiedad de los modelos de IA es un aspecto complejo de las redes de IA descentralizadas. Cada plataforma ha adoptado una postura ligeramente diferente, y en general esta es un área en evolución sin una solución completa todavía:

  • Bittensor: Los modelos en Bittensor son proporcionados por los nodos mineros, y esos mineros retienen el control total sobre los pesos de sus modelos (que nunca se publican en la cadena). Bittensor no rastrea explícitamente quién "posee" un modelo más allá del hecho de que se está ejecutando en una cierta dirección de billetera. Si un minero se va, su modelo se va con él. Por lo tanto, la atribución de PI en Bittensor es fuera de la cadena: si un minero usa un modelo propietario, no hay nada en la cadena que lo haga cumplir o incluso lo sepa. La filosofía de Bittensor fomenta las contribuciones abiertas (muchos mineros podrían usar modelos de código abierto como GPT-J u otros) y la red recompensa el rendimiento de esos modelos. Se podría decir que Bittensor crea una puntuación de reputación para los modelos (a través de las clasificaciones de los validadores), y esa es una forma de reconocer el valor del modelo, pero los derechos sobre el modelo en sí no están tokenizados ni distribuidos. Notablemente, los propietarios de subred en Bittensor podrían ser vistos como dueños de una pieza de PI: definen una tarea (que podría incluir un conjunto de datos o un método). El propietario de la subred acuña un NFT (llamado UID de subred) al crear una subred, y ese NFT les da derecho al 18 % de las recompensas en esa subred. Esto tokeniza efectivamente la creación de un mercado de modelos (la subred), si no las instancias del modelo. Si se considera la definición de la subred (digamos una tarea de reconocimiento de voz con un conjunto de datos particular) como PI, eso al menos se registra y recompensa. Pero los pesos individuales del modelo que los mineros entrenan, no hay un registro de propiedad en la cadena de ellos. La atribución viene en forma de recompensas pagadas a la dirección de ese minero. Bittensor actualmente no implementa un sistema donde, por ejemplo, varias personas puedan poseer conjuntamente un modelo y obtener un reparto automático de ingresos; la persona que ejecuta el modelo (minero) obtiene la recompensa y depende de ellos fuera de la cadena honrar cualquier licencia de PI del modelo que usaron.

  • Gensyn: En Gensyn, la propiedad del modelo es sencilla en el sentido de que el solicitante (el que quiere que se entrene un modelo) proporciona la arquitectura del modelo y los datos, y después del entrenamiento, recibe el artefacto del modelo resultante. Los resolutores que realizan el trabajo no tienen derechos sobre el modelo; son como contratistas que reciben un pago por un servicio. El protocolo de Gensyn asume así el modelo de PI tradicional: si tenías derechos legales sobre el modelo y los datos que enviaste, todavía los tienes después de que se entrene; la red de cómputo no reclama ninguna propiedad. Gensyn menciona que el mercado también podría comerciar algoritmos y datos como cualquier otro recurso. Esto sugiere un escenario en el que alguien podría ofrecer un modelo o algoritmo para su uso en la red, posiblemente por una tarifa, tokenizando así el acceso a ese modelo. Por ejemplo, un creador de modelos podría poner su modelo preentrenado en Gensyn y permitir que otros lo ajusten a través de la red por una tarifa (esto monetizaría efectivamente la PI del modelo). Si bien el protocolo no hace cumplir los términos de la licencia, se podrían codificar los requisitos de pago: un contrato inteligente podría requerir una tarifa para desbloquear los pesos del modelo para un resolutor. Sin embargo, estos son casos de uso especulativos; el diseño principal de Gensyn se trata de habilitar trabajos de entrenamiento. En cuanto a la atribución, si varias partes contribuyen a un modelo (digamos que una proporciona datos, otra proporciona cómputo), eso probablemente se manejaría mediante cualquier contrato o acuerdo que establezcan antes de usar Gensyn (por ejemplo, un contrato inteligente podría dividir el pago entre el proveedor de datos y el proveedor de cómputo). Gensyn en sí no rastrea "este modelo fue construido por X, Y, Z" en la cadena más allá del registro de qué direcciones se pagaron por el trabajo. En resumen, la PI del modelo en Gensyn permanece con el solicitante, y cualquier atribución o licencia debe manejarse a través de los acuerdos legales fuera del protocolo o a través de contratos inteligentes personalizados construidos sobre él.

  • Cuckoo: En el ecosistema de Cuckoo, los creadores de modelos (constructores de aplicaciones de IA) son participantes de primera clase: ellos despliegan el servicio de IA. Si un constructor de aplicaciones ajusta un modelo de lenguaje o desarrolla un modelo personalizado y lo aloja en Cuckoo, ese modelo es esencialmente su propiedad y actúan como el propietario del servicio. Cuckoo no se apropia de ninguna propiedad; en cambio, proporciona la infraestructura para que moneticen su uso. Por ejemplo, si un desarrollador despliega una IA de chatbot, los usuarios pueden interactuar con ella y el desarrollador (más los mineros) ganan CAI por cada interacción. La plataforma atribuye así los ingresos por uso al creador del modelo, pero no publica explícitamente los pesos del modelo ni los convierte en un NFT. De hecho, para ejecutar el modelo en las GPU de los mineros, el nodo coordinador probablemente tenga que enviar el modelo (o el tiempo de ejecución) al minero de alguna forma. Esto plantea preguntas sobre la PI: ¿podría un minero malicioso copiar los pesos del modelo y distribuirlos? En una red descentralizada, ese riesgo existe si se utilizan modelos propietarios. El enfoque actual de Cuckoo ha sido en modelos bastante abiertos (Stable Diffusion, modelos derivados de LLaMA, etc.) y en construir una comunidad, por lo que aún no hemos visto una aplicación de los derechos de PI a través de contratos inteligentes. La plataforma podría integrar potencialmente herramientas como la ejecución de modelos encriptados o enclaves seguros en el futuro para la protección de la PI, pero no se menciona nada específico en la documentación. Lo que rastrea es quién proporcionó el servicio del modelo para cada tarea: dado que el coordinador es una identidad en la cadena, todo el uso de su modelo se le atribuye, y obtienen automáticamente su parte de las recompensas. Si alguien entregara o vendiera un modelo a otra persona, efectivamente transferiría el control del nodo coordinador (quizás incluso simplemente dándoles la clave privada o el NFT si el rol de coordinador estuviera tokenizado). En la actualidad, la propiedad comunitaria de modelos (a través de participaciones en tokens) no está implementada, pero la visión de Cuckoo sugiere una IA descentralizada impulsada por la comunidad, por lo que podrían explorar permitir que las personas financien o gobiernen colectivamente un modelo de IA. La tokenización de modelos más allá de la propiedad individual sigue siendo un área abierta en estas redes; se reconoce como un objetivo (permitir que las comunidades posean modelos de IA en lugar de las corporaciones), pero en la práctica requiere soluciones para los desafíos de PI y verificación mencionados anteriormente.

En resumen, la propiedad de los modelos en Bittensor, Gensyn y Cuckoo se maneja fuera de la cadena por medios tradicionales: la persona o entidad que ejecuta o envía el modelo es efectivamente el propietario. Las redes proporcionan atribución en forma de recompensas económicas (pagando al contribuyente del modelo por su PI o esfuerzo). Ninguno de los tres tiene una licencia incorporada o una aplicación de regalías sobre el uso del modelo a nivel de contrato inteligente todavía. La atribución proviene de la reputación y la recompensa: por ejemplo, los mejores modelos de Bittensor obtienen altas puntuaciones de reputación (que es un registro público) y más TAO, lo que es un crédito implícito para sus creadores. Con el tiempo, podemos ver características como pesos de modelo vinculados a NFT o licencias descentralizadas para rastrear mejor la PI, pero actualmente la prioridad ha sido hacer que las redes funcionen e incentiven las contribuciones. Todos están de acuerdo en que verificar la procedencia y los resultados de los modelos es clave para permitir verdaderos mercados de activos de modelos, y la investigación en esta dirección está en curso.

Estructuras de Reparto de Ingresos

Las tres plataformas deben decidir cómo dividir el pastel económico cuando varias partes colaboran para producir un resultado de IA valioso. ¿Quién recibe el pago y cuánto, cuando se utiliza un servicio de IA o cuando se emiten tokens? Cada una tiene un modelo de reparto de ingresos distinto:

  • Bittensor: Como se mencionó en la sección de incentivos, la distribución de ingresos de Bittensor está definida por el protocolo a nivel de bloque: 41 % para los mineros, 41 % para los validadores, 18 % para el propietario de la subred por cada emisión de TAO del bloque. Esto es efectivamente un reparto de ingresos incorporado para el valor generado en cada subred. La parte del propietario de la subred (18 %) actúa como una regalía por el "diseño del modelo/tarea" o por iniciar el ecosistema de esa subred. El hecho de que mineros y validadores obtengan partes iguales asegura que sin validación, los mineros no son recompensados (y viceversa); son simbióticos y cada uno obtiene una porción igual de las recompensas acuñadas. Si consideramos a un usuario externo que paga TAO para consultar un modelo, el whitepaper de Bittensor prevé que ese pago también se divida de manera similar entre el minero que responde y los validadores que ayudaron a verificar la respuesta (la división exacta podría ser determinada por el protocolo o las fuerzas del mercado). Además, los delegadores que hacen stake en mineros/validadores son efectivamente socios; típicicamente, un minero/validador compartirá un porcentaje de su TAO ganado con sus delegadores (esto es configurable, pero a menudo la mayoría va a los delegadores). Así, si un minero ganó 1 TAO de un bloque, eso podría dividirse 80/20 entre sus delegadores y ellos mismos, por ejemplo, según el stake. Esto significa que incluso los no operadores obtienen una parte de los ingresos de la red proporcional a su apoyo. Con la introducción de dTAO, se agregó otra capa de reparto: aquellos que hacen stake en el pool de una subred obtienen tokens alfa, que les dan derecho a parte de las emisiones de esa subred (como el yield farming). En efecto, cualquiera puede tomar una participación en el éxito de una subred particular y recibir una fracción de las recompensas de mineros/validadores al poseer tokens alfa (los tokens alfa se aprecian a medida que la subred atrae más uso y emisiones). En resumen, el reparto de ingresos de Bittensor está fijado por código para los roles principales, y se comparte aún más mediante acuerdos sociales/de staking. Es una división relativamente transparente y basada en reglas: cada bloque, los participantes saben exactamente cómo se asigna el 1 TAO, y por lo tanto conocen sus "ganancias" por contribución. Esta claridad es una de las razones por las que Bittensor a veces se compara con Bitcoin para la IA: una emisión monetaria determinista donde la recompensa de los participantes se establece matemáticamente.

  • Gensyn: El reparto de ingresos en Gensyn es más dinámico e impulsado por el mercado, ya que las tareas tienen un precio individual. Cuando un solicitante crea un trabajo, adjunta una recompensa (digamos X tokens) que está dispuesto a pagar. Un resolutor que completa el trabajo obtiene esa X (menos cualquier tarifa de red). Si un verificador está involucrado, típicamente hay una regla como: si no se detecta fraude, el resolutor se queda con el pago completo; si se detecta fraude, el resolutor es penalizado con slashing —perdiendo parte o la totalidad de su stake— y esa cantidad recortada se le da al verificador como recompensa. Así que los verificadores no ganan de cada tarea, solo cuando atrapan un mal resultado (además de posiblemente una pequeña tarifa base por participar, dependiendo de la implementación). No hay un concepto incorporado de pagar al propietario de un modelo aquí porque se asume que el solicitante es el propietario del modelo o tiene derechos para usarlo. Uno podría imaginar un escenario donde un solicitante está ajustando el modelo preentrenado de otra persona y una porción del pago va al creador original del modelo, pero eso tendría que manejarse fuera del protocolo (por ejemplo, mediante un acuerdo o un contrato inteligente separado que divida el pago del token en consecuencia). El reparto a nivel de protocolo de Gensyn es esencialmente cliente -> resolutor (-> verificador). El modelo de token probablemente incluye alguna asignación para el tesoro o la fundación del protocolo; por ejemplo, un pequeño porcentaje del pago de cada tarea podría ir a una tesorería que podría usarse para financiar el desarrollo o pools de seguros (esto no se indica explícitamente en los documentos disponibles, pero muchos protocolos lo hacen). Además, al principio, Gensyn puede subsidiar a los resolutores a través de la inflación: a los usuarios de la testnet se les prometen recompensas en el TGE, lo que es efectivamente un reparto de ingresos de la distribución inicial de tokens (los primeros resolutores y partidarios obtienen una parte de los tokens por ayudar a arrancar, similar a un airdrop o recompensa de minería). Con el tiempo, a medida que los trabajos reales dominen, las recompensas inflacionarias disminuirían, y los ingresos de los resolutores provendrían principalmente de los pagos de los usuarios. El enfoque de Gensyn se puede resumir como un modelo de ingresos de pago por servicio: la red facilita un pago directo de aquellos que necesitan que se haga un trabajo a aquellos que lo hacen, con los verificadores y posiblemente los stakers de tokens tomando una parte solo cuando desempeñan un papel en la seguridad de ese servicio.

  • Cuckoo: El reparto de ingresos de Cuckoo ha evolucionado. Inicialmente, debido a que no había muchos usuarios finales que pagaran, el reparto de ingresos era esencialmente un reparto de inflación: las asignaciones del 30 % para minería y del 11 % para staking del suministro de tokens significaban que los mineros y stakers compartían los tokens emitidos por el pool de lanzamiento justo de la red. En la práctica, Cuckoo realizaba cosas como pagos diarios de CAI a los mineros proporcionales a las tareas completadas. Esos pagos provenían en gran medida de la asignación de recompensas de minería (que es parte del suministro fijo reservado). Esto es similar a cómo muchas blockchains de Capa 1 distribuyen recompensas de bloque a mineros/validadores; no estaba ligado al uso real por parte de usuarios externos, era más para incentivar la participación y el crecimiento. Sin embargo, como se destaca en su blog de julio de 2025, esto llevó a un uso incentivado por el farming de tokens en lugar de la demanda real. La siguiente etapa para Cuckoo es un verdadero modelo de reparto de ingresos basado en tarifas de servicio. En este modelo, cuando un usuario final usa, digamos, el servicio de generación de imágenes y paga $1 (en términos de cripto), ese valor de $1 en tokens se dividiría quizás así: 0.70 para el minero que hizo el trabajo de GPU, 0.20 para el desarrollador de la aplicación (coordinador) que proporcionó el modelo y la interfaz, y 0.10 para los stakers o la tesorería de la red. (Nota: las proporciones exactas son hipotéticas; Cuckoo no las ha especificado públicamente todavía, pero esto ilustra el concepto). De esta manera, todos los contribuyentes a la prestación del servicio obtienen una parte de los ingresos. Esto es análogo, por ejemplo, a una economía de viajes compartidos pero para la IA: el vehículo (minero de GPU) obtiene la mayoría, el conductor o la plataforma (coordinador que construyó el servicio del modelo) obtiene una parte, y quizás la gobernanza/stakers de la plataforma obtienen una pequeña tarifa. La mención de Cuckoo de "modelos de reparto de ingresos y recompensas de tokens vinculados directamente a métricas de uso" sugiere que si un servicio o nodo en particular maneja mucho volumen, sus operadores y partidarios ganarán más. Se están alejando de los rendimientos planos por simplemente bloquear tokens (que era el caso con su APY de staking inicialmente). En términos concretos: si haces stake en un coordinador que termina impulsando una aplicación de IA muy popular, podrías ganar una porción de las tarifas de esa aplicación, un verdadero escenario de staking como inversión en utilidad, en lugar de hacer stake solo por la inflación. Esto alinea los incentivos de todos para atraer a usuarios reales que pagan por los servicios de IA, lo que a su vez devuelve valor a los poseedores de tokens. Vale la pena señalar que la cadena de Cuckoo también tenía tarifas por transacciones (gas), por lo que los mineros que producían bloques (inicialmente los mineros de GPU también contribuían a la producción de bloques en la cadena de Cuckoo) también obtenían tarifas de gas. Con el cierre de la cadena y la migración a un rollup, las tarifas de gas probablemente serán mínimas (o en Ethereum), por lo que los ingresos principales se convierten en las propias tarifas del servicio de IA. En resumen, Cuckoo está en transición de un modelo impulsado por subsidios (la red paga a los participantes de su pool de tokens) a un modelo impulsado por la demanda (los participantes ganan de los pagos reales de los usuarios). El token seguirá desempeñando un papel en el staking y la gobernanza, pero las ganancias diarias de los mineros y los desarrolladores de aplicaciones deberían provenir cada vez más de los usuarios que compran servicios de IA. Este modelo es más sostenible a largo plazo y se asemeja mucho al reparto de ingresos de SaaS de la Web2, pero implementado a través de contratos inteligentes y tokens para mayor transparencia.

Superficies de Ataque y Vulnerabilidades

La descentralización de la IA introduce varios desafíos de incentivos y seguridad. Ahora analizamos los vectores de ataque clave —ataques Sybil, colusión, parasitismo (freeloading) y envenenamiento de datos/modelos— y cómo cada plataforma los mitiga o permanece vulnerable a ellos:

  • Ataques Sybil (identidades falsas): En una red abierta, un atacante podría crear muchas identidades (nodos) para obtener recompensas o influencia desproporcionadas.

  • Bittensor: La resistencia a los ataques Sybil se proporciona principalmente por el costo de entrada. Para registrar un nuevo minero o validador en Bittensor, uno debe gastar o hacer stake de TAO; esto podría ser una quema o un requisito de fianza. Esto significa que crear N nodos falsos incurre en N veces el costo, lo que hace que los grandes enjambres Sybil sean caros. Además, el consenso de Bittensor vincula la influencia al stake y al rendimiento; un Sybil sin stake o con bajo rendimiento gana poco. Un atacante tendría que invertir mucho y también hacer que sus nodos Sybil contribuyan con trabajo útil para obtener una recompensa significativa (lo cual no es una estrategia Sybil típica). Dicho esto, si un atacante tiene mucho capital, podría adquirir la mayoría de los TAO y registrar muchos validadores o mineros, efectivamente un Sybil por riqueza. Esto se superpone con el escenario de ataque del 51 %: si una sola entidad controla >50 % del TAO en stake en una subred, pueden influir fuertemente en el consenso. La introducción de dTAO por parte de Bittensor ayuda un poco aquí: distribuye la influencia entre las subredes y requiere el apoyo de la comunidad en el staking para que las subredes prosperen, lo que dificulta que una entidad controle todo. Aún así, los ataques Sybil por parte de un adversario bien financiado siguen siendo una preocupación; el análisis de Arxiv señala explícitamente que el stake está bastante concentrado ahora, por lo que la barrera para un ataque mayoritario no es tan alta como se desearía. Para mitigar esto, se han sugerido propuestas como límites de stake por billetera (por ejemplo, limitar el stake efectivo en el percentil 88 para evitar que una billetera domine). En resumen, Bittensor se basa en la identidad ponderada por stake (no se pueden generar identidades baratas sin un stake proporcional) para manejar los Sybils; es razonablemente efectivo excepto bajo un atacante muy ingenioso.

  • Gensyn: Los ataques Sybil en Gensyn se manifestarían como un atacante creando muchos nodos de resolutor o verificador para manipular el sistema. La defensa de Gensyn es puramente económica y criptográfica: las identidades en sí no importan, pero hacer el trabajo o depositar una garantía sí. Si un atacante crea 100 nodos de resolutor falsos pero no tienen trabajos ni stake, no logran nada. Para ganar tareas, un nodo Sybil tendría que pujar competitivamente y tener el hardware para hacer el trabajo. Si pujan por debajo sin capacidad, fallarán y perderán el stake. De manera similar, un atacante podría crear muchas identidades de verificador con la esperanza de ser elegido para verificar (si el protocolo selecciona verificadores al azar). Pero si hay demasiados, la red o el solicitante del trabajo podrían limitar el número de verificadores activos. Además, los verificadores necesitan potencialmente realizar la computación para verificarla, lo cual es costoso; tener muchos verificadores falsos no ayuda a menos que realmente puedas verificar los resultados. Un ángulo Sybil más pertinente en Gensyn es si un atacante intenta llenar la red con trabajos o respuestas falsas para hacer perder el tiempo a otros. Eso se mitiga requiriendo también un depósito de los solicitantes (un solicitante malicioso que publica trabajos falsos pierde su pago o depósito). En general, el uso de stakes/fianzas requeridas y la selección aleatoria para la verificación por parte de Gensyn significa que un atacante gana poco al tener múltiples identidades a menos que también traiga recursos proporcionales. Se convierte en un ataque más costoso en lugar de uno barato. El modelo de seguridad optimista asume al menos un verificador honesto; los Sybils tendrían que abrumar y ser todos los verificadores para hacer trampa consistentemente, lo que nuevamente nos lleva a poseer la mayoría del stake o del poder de cómputo. La resistencia Sybil de Gensyn es, por lo tanto, comparable a la de un rollup optimista: mientras haya un actor honesto, los Sybils no pueden causar un daño sistémico fácilmente.

  • Cuckoo: La prevención de ataques Sybil en Cuckoo se basa en el staking y la investigación de la comunidad. Cada rol en Cuckoo (minero, coordinador, incluso usuario en algunos casos) requiere hacer stake de $CAI. Esto eleva inmediatamente el costo de las identidades Sybil: un atacante que crea 100 mineros falsos necesitaría adquirir y bloquear stake para cada uno. Además, el diseño de Cuckoo tiene un elemento humano/comunitario: los nuevos nodos necesitan ganar reputación a través de la votación en la cadena. Es poco probable que un ejército Sybil de nodos nuevos sin reputación reciba muchas tareas o la confianza de los usuarios. Los coordinadores en particular tienen que atraer usuarios; un coordinador falso sin historial no obtendría uso. Para los mineros, los coordinadores pueden ver sus estadísticas de rendimiento (tareas exitosas, etc.) en Cuckoo Scan y preferirán mineros confiables. Cuckoo también tenía un número relativamente pequeño de mineros (40 GPU en un momento en la beta), por lo que cualquier afluencia extraña de muchos nodos sería notable. El punto débil potencial es si el atacante también manipula el sistema de reputación, por ejemplo, haciendo un gran stake de CAI en sus nodos Sybil para que parezcan reputables o creando cuentas de "usuario" falsas para votarse a sí mismos. Esto es teóricamente posible, pero como todo está curado por tokens, cuesta tokens hacerlo (esencialmente estarías votando con tu propio stake en tus propios nodos). El equipo de Cuckoo también puede ajustar los parámetros de staking y recompensa si se observa un comportamiento Sybil (especialmente ahora que se está convirtiendo en un servicio de rollup más centralizado; pueden pausar o aplicar slashing a los malos actores). En resumen, los Sybils se mantienen a raya al requerir tener algo en juego (stake) y necesitar la aprobación de la comunidad. Nadie puede simplemente entrar con cientos de GPU falsas y cosechar recompensas sin una inversión significativa que los participantes honestos podrían gastar mejor en hardware real y stake.

  • Colusión: Aquí consideramos a múltiples participantes que se confabulan para manipular el sistema, por ejemplo, validadores y mineros que coluden en Bittensor, o resolutores y verificadores que coluden en Gensyn, etc.

  • Bittensor: La colusión ha sido identificada como una preocupación real. En el diseño original, un puñado de validadores podía coludir para siempre votar a favor de ciertos mineros o de ellos mismos, sesgando injustamente la distribución de recompensas (esto se observó como una concentración de poder en la subred raíz). El consenso Yuma proporciona cierta defensa: al tomar una mediana de las puntuaciones de los validadores y penalizar a los que se desvían, evita que un pequeño grupo en colusión impulse dramáticamente a un objetivo a menos que sean la mayoría. En otras palabras, si 3 de 10 validadores coluden para dar a un minero una puntuación súper alta pero los otros 7 no lo hacen, las puntuaciones atípicas de los coludidos se recortan y la recompensa del minero se basa en la puntuación mediana (por lo que la colusión no ayuda significativamente). Sin embargo, si los coludidos forman >50 % de los validadores (o >50 % del stake entre los validadores), efectivamente son el consenso: pueden acordar puntuaciones altas falsas y la mediana reflejará su opinión. Este es el clásico escenario de ataque del 51 %. Desafortunadamente, el estudio de Arxiv encontró algunas subredes de Bittensor donde una coalición de solo el 1-2 % de los participantes (en términos de número) controlaba la mayoría del stake, debido a la fuerte concentración de tokens. Esto significa que la colusión de unos pocos grandes poseedores era una amenaza creíble. La mitigación que Bittensor está persiguiendo a través de dTAO es democratizar la influencia: al permitir que cualquier poseedor de TAO dirija el stake a las subredes, diluye el poder de los grupos cerrados de validadores. Además, propuestas como el staking cóncavo (rendimientos decrecientes para un stake desproporcionado) y los límites de stake tienen como objetivo romper la capacidad de una entidad en colusión para acumular demasiado poder de voto. La suposición de seguridad de Bittensor ahora es similar a la prueba de participación: ninguna entidad única (o cartel) controla >50 % del stake activo. Mientras eso se mantenga, la colusión es limitada porque los validadores honestos anularán las malas puntuaciones y los propietarios de subredes en colusión no pueden aumentar arbitrariamente sus propias recompensas. Finalmente, sobre la colusión entre propietarios de subredes y validadores (por ejemplo, un propietario de subred sobornando a los validadores para que califiquen altamente a los mineros de su subred), dTAO elimina el control directo de los validadores, reemplazándolo con decisiones de los poseedores de tokens. Es más difícil coludir con "el mercado" a menos que compres todo el suministro de tokens, en cuyo caso no es realmente colusión, es una toma de control. Así que la principal técnica anti-colusión de Bittensor es el consenso algorítmico (recorte de mediana) y la amplia distribución de tokens.

  • Gensyn: La colusión en Gensyn probablemente involucraría a un resolutor y un verificador (o múltiples verificadores) coludiendo para engañar al sistema. Por ejemplo, un resolutor podría producir un resultado falso y un verificador en colusión podría intencionalmente no desafiarlo (o incluso atestiguar que es correcto si el protocolo pidiera a los verificadores que lo aprobaran). Para mitigar esto, el modelo de seguridad de Gensyn requiere al menos un verificador honesto. Si todos los verificadores están en colusión con el resolutor, entonces un mal resultado no es desafiado. Gensyn aborda esto fomentando muchos verificadores independientes (cualquiera puede verificar) y por la teoría de juegos de que un verificador podría ganar una gran recompensa rompiendo la colusión y desafiando (porque obtendrían el stake del resolutor). Esencialmente, incluso si hay un grupo que acuerda coludir, cada miembro tiene un incentivo para desertar y reclamar la recompensa por sí mismo; esta es una configuración clásica del Dilema del Prisionero. La esperanza es que esto mantenga los grupos de colusión pequeños o ineficaces. Otra colusión potencial es entre múltiples resolutores para subir los precios o monopolizar las tareas. Sin embargo, dado que los desarrolladores pueden elegir dónde publicar las tareas (y las tareas no son unidades idénticas que se puedan monopolizar fácilmente), la colusión de resolutores en el precio sería difícil de coordinar globalmente; cualquier resolutor que no esté en colusión podría pujar por debajo para ganar el trabajo. La dinámica del mercado abierto contrarresta la colusión de precios, asumiendo al menos algunos participantes competitivos. Un ángulo más: colusión de verificadores para perjudicar a los resolutores, por ejemplo, verificadores acusando falsamente a resolutores honestos para robar su stake. La prueba de fraude de Gensyn es binaria y en la cadena; una acusación falsa fallaría cuando la re-computación en la cadena no encuentre ningún error, y presumiblemente el verificador malicioso perdería algo (quizás un depósito o reputación). Así que una colusión de verificadores tratando de sabotear a los resolutores sería atrapada por el proceso de verificación del protocolo. En resumen, la arquitectura de Gensyn es robusta siempre que al menos una parte en cualquier conjunto en colusión tenga un incentivo para ser honesta, una propiedad de la verificación optimista similar a requerir un minero honesto en Bitcoin para eventualmente exponer un fraude. La colusión es teóricamente posible si un atacante pudiera controlar a todos los verificadores y resolutores en una tarea (como la mayoría de la red), pero entonces podrían simplemente hacer trampa sin necesidad de colusión per se. Los incentivos criptoeconómicos están dispuestos para hacer que mantener la colusión sea irracional.

  • Cuckoo: La colusión en Cuckoo podría ocurrir de varias maneras:

  1. Un coordinador coludiendo con mineros: por ejemplo, un coordinador podría asignar siempre tareas a un conjunto de mineros amigos y repartir las recompensas, ignorando a otros mineros honestos. Dado que los coordinadores tienen discreción en la programación de tareas, esto puede suceder. Sin embargo, si los mineros amigos son de baja calidad, los usuarios finales podrían notar un servicio lento o deficiente y marcharse, por lo que el coordinador está desincentivado de un favoritismo puro que perjudique la calidad. Si la colusión es para manipular las recompensas (digamos, enviando tareas falsas para dar tokens a los mineros), eso se detectaría en la cadena (muchas tareas con quizás entradas idénticas o sin un usuario real) y puede ser penalizado. La transparencia en la cadena de Cuckoo significa que cualquier patrón inusual podría ser señalado por la comunidad o el equipo central. Además, debido a que todos los participantes hacen stake, un anillo de coordinador-minero en colusión se arriesga a perder su stake si son atrapados abusando del sistema (por ejemplo, si la gobernanza decide aplicarles slashing por fraude).
  2. Mineros coludiendo entre ellos: podrían compartir información o formar un cartel para, digamos, votarse todos entre sí en reputación o todos negarse a servir a un coordinador en particular para extraer tarifas más altas. Estos escenarios son menos probables: la votación de reputación la realizan los stakers (incluidos los usuarios), no los propios mineros votando entre sí. Y negarse a prestar servicio solo llevaría a los coordinadores a encontrar otros mineros o a dar la alarma. Dada la escala relativamente pequeña actual, cualquier colusión sería difícil de ocultar.
  3. Colusión para manipular la gobernanza: grandes poseedores de CAI podrían coludir para aprobar propuestas a su favor (como establecer una tarifa exorbitante o redirigir la tesorería). Este es un riesgo en cualquier gobernanza de tokens. La mejor mitigación es distribuir ampliamente el token (el lanzamiento justo de Cuckoo dio el 51 % a la comunidad) y tener una supervisión comunitaria activa. Además, dado que Cuckoo se alejó de la L1, la gobernanza inmediata en la cadena podría ser limitada hasta que se reasienten en una nueva cadena; el equipo probablemente retiene un control multisig en el ínterin, lo que irónicamente previene la colusión de extraños maliciosos a expensas de ser centralizado temporalmente. En general, Cuckoo se apoya en la transparencia y el staking para manejar la colusión. Hay un elemento de confianza en que los coordinadores se comporten porque quieren atraer usuarios en un entorno competitivo. Si la colusión conduce a un servicio más deficiente o a una manipulación obvia de las recompensas, las partes interesadas pueden votar en contra o dejar de hacer stake en los malos actores, y la red puede aplicarles slashing o bloquearlos. La naturaleza bastante abierta (cualquiera puede convertirse en coordinador o minero si hace stake) significa que la colusión requeriría un gran esfuerzo coordinado que sería evidente. No está tan matemáticamente prevenida como en Bittensor o Gensyn, pero la combinación de stake económico y gobernanza comunitaria proporciona un control.
  • Freeloading (Problemas de parasitismo): Esto se refiere a los participantes que intentan obtener recompensas sin contribuir con un valor equivalente, por ejemplo, un validador que en realidad no evalúa pero aún así gana, o un minero que copia las respuestas de otros en lugar de computar, o usuarios que farmean recompensas sin proporcionar una entrada útil.

  • Bittensor: Un problema conocido de parasitismo en Bittensor es la "copia de pesos" por parte de validadores perezosos. Un validador podría simplemente copiar la opinión de la mayoría (o las puntuaciones de otro validador) en lugar de evaluar independientemente a los mineros. Al hacerlo, evitan el costo de ejecutar consultas de IA pero aún así obtienen recompensas si sus puntuaciones enviadas parecen alineadas con el consenso. Bittensor combate esto midiendo la alineación con el consenso y la contribución informativa de cada validador. Si un validador siempre copia a otros, puede que se alinee bien (por lo que no es penalizado fuertemente), pero no agrega ningún valor único. Los desarrolladores del protocolo han discutido dar mayores recompensas a los validadores que proporcionan evaluaciones precisas pero no puramente redundantes. Técnicas como la infusión de ruido (dar deliberadamente a los validadores consultas ligeramente diferentes) podrían obligarlos a trabajar realmente en lugar de copiar, aunque no está claro si eso está implementado. El artículo de Arxiv sugiere emisiones ponderadas por rendimiento y métodos de puntuación compuesta para vincular mejor el esfuerzo del validador con la recompensa. En cuanto a los mineros, un posible comportamiento de parasitismo sería si un minero consulta a otros mineros y retransmite la respuesta (una forma de plagio). El diseño de Bittensor (con consultas descentralizadas) podría permitir que el modelo de un minero llame a otros a través de su propia dendrita. Si un minero simplemente retransmite la respuesta de otro, un buen validador podría detectarlo porque la respuesta podría no coincidir consistentemente con las capacidades del modelo declaradas por el minero. Es difícil de detectar algorítmicamente, pero un minero que nunca computa resultados originales debería eventualmente obtener una puntuación baja en algunas consultas y perder reputación. Otro escenario de parasitismo eran los delegadores que ganaban recompensas sin hacer trabajo de IA. Eso es intencional (para involucrar a los poseedores de tokens), por lo que no es un ataque, pero sí significa que algunas emisiones de tokens van a personas que solo hicieron stake. Bittensor lo justifica como una alineación de incentivos, no como recompensas desperdiciadas. En resumen, Bittensor reconoce el problema de los validadores parásitos y está ajustando los incentivos (como dar puntuaciones de confianza de validador que impulsan a aquellos que no se desvían ni copian). Su solución es esencialmente recompensar el esfuerzo y la corrección de manera más explícita, para que no hacer nada o copiar ciegamente produzca menos TAO con el tiempo.

  • Gensyn: En Gensyn, a los parásitos les resultaría difícil ganar, porque uno debe proporcionar cómputo o atrapar a alguien haciendo trampa para obtener tokens. Un resolutor no puede "fingir" el trabajo; tiene que presentar una prueba válida o arriesgarse al slashing. No hay mecanismo para recibir un pago sin hacer la tarea. Un verificador podría teóricamente permanecer inactivo y esperar que otros atrapen fraudes, pero entonces no ganaría nada (porque solo el que presenta la prueba de fraude obtiene la recompensa). Si demasiados verificadores intentan parasitar (no re-computando realmente las tareas), entonces un resolutor fraudulento podría pasar desapercibido porque nadie está verificando. El diseño de incentivos de Gensyn aborda esto con la recompensa jackpot: solo se necesita un verificador activo para atrapar a un tramposo y obtener un gran pago, por lo que es racional que al menos uno siempre haga el trabajo. Otros que no trabajan no dañan la red, excepto por ser inútiles; tampoco obtienen recompensa. Así que el sistema filtra naturalmente a los parásitos: solo aquellos verificadores que realmente verifican obtendrán ganancias a largo plazo (otros gastan recursos en nodos para nada o muy raramente obtienen una recompensa por casualidad). El protocolo también podría aleatorizar qué verificador tiene la oportunidad de desafiar para desalentar que todos los verificadores asuman que "alguien más lo hará". Dado que las tareas se pagan individualmente, no hay un análogo de "recompensas de staking sin trabajo" aparte de los incentivos de la testnet que son temporales. Un área a observar es la optimización de múltiples tareas: un resolutor podría intentar reutilizar el trabajo entre tareas o subcontratarlo en secreto a alguien más barato (como usar una nube centralizada), pero eso no es realmente un parasitismo dañino; si entregan resultados correctos a tiempo, no importa cómo lo hicieron. Eso es más como arbitraje que un ataque. En resumen, el diseño del mecanismo de Gensyn deja poco espacio para que los parásitos ganen, porque cada token distribuido corresponde a un trabajo hecho o a un tramposo castigado.

  • Cuckoo: La fase inicial de Cuckoo creó inadvertidamente un problema de parasitismo: el airdrop y el staking de alto rendimiento atrajeron a usuarios que solo estaban allí para farmear tokens. Estos usuarios ciclaban tokens a través de faucets o manipulaban las tareas del airdrop (por ejemplo, usando continuamente prompts de prueba gratuitos o creando muchas cuentas para reclamar recompensas) sin contribuir al valor a largo plazo de la red. Cuckoo reconoció esto como un problema: esencialmente, la gente estaba "usando" la red no por el resultado de la IA, sino para obtener una ganancia especulativa. La decisión de terminar la cadena L1 y reenfocarse fue en parte para deshacerse de estas desalineaciones de incentivos. Al vincular las futuras recompensas de tokens al uso real (es decir, ganas porque el servicio está siendo utilizado por clientes que pagan), el atractivo del parasitismo disminuye. También existe un escenario de parasitismo por parte de los mineros: un minero podría unirse, recibir tareas y de alguna manera no realizarlas pero aún así reclamar la recompensa. Sin embargo, el coordinador está verificando los resultados; si un minero no devuelve ninguna salida o una salida incorrecta, el coordinador no lo contará como una tarea completada, por lo que el minero no recibiría pago. Los mineros también podrían intentar seleccionar las tareas fáciles y abandonar las difíciles (por ejemplo, si algunos prompts son más lentos, un minero podría desconectarse para evitarlos). Esto podría ser un problema, pero los coordinadores pueden notar la fiabilidad de un minero. Si un minero se desconecta con frecuencia, el coordinador puede dejar de asignarle tareas o aplicar slashing a su stake (si existe tal mecanismo o simplemente no recompensarlo). El parasitismo de los usuarios: dado que muchos servicios de IA tienen pruebas gratuitas, un usuario podría enviar spam de solicitudes para obtener resultados sin pagar (si hay un modelo subsidiado). Eso no es tanto un problema a nivel de protocolo como a nivel de servicio; cada coordinador puede decidir cómo manejar el uso gratuito (por ejemplo, requiriendo un pequeño pago o limitando la velocidad). Debido a que Cuckoo inicialmente regaló cosas (como generaciones de imágenes de IA gratuitas para atraer usuarios), algunos se aprovecharon, pero eso era parte del marketing de crecimiento esperado. A medida que esas promociones terminen, los usuarios tendrán que pagar, por lo que no habrá almuerzo gratis que explotar. En general, la nueva estrategia de Cuckoo de mapear la distribución de tokens a la utilidad real está explícitamente dirigida a eliminar el problema del parasitismo de "minar tokens por hacer bucles sin sentido".

  • Envenenamiento de Datos o Modelos: Esto se refiere a la introducción maliciosa de datos o comportamientos incorrectos de tal manera que los modelos de IA se degradan o los resultados se manipulan, así como problemas de contenido dañino o sesgado que se contribuye.

  • Bittensor: El envenenamiento de datos en Bittensor significaría que un minero da intencionalmente respuestas incorrectas o dañinas, o que los validadores evalúan a propósito las buenas respuestas como malas. Si un minero produce basura o contenido malicioso de manera consistente, los validadores le darán puntuaciones bajas, y ese minero ganará poco y eventualmente se retirará; el incentivo económico es proporcionar calidad, por lo que "envenenar" a otros no produce ningún beneficio para el atacante (a menos que su objetivo sea puramente el sabotaje a su propio costo). ¿Podría un minero malicioso envenenar a otros? En Bittensor, los mineros no se entrenan directamente entre sí (al menos no por diseño; no hay un modelo global que se esté actualizando que pueda ser envenenado). El modelo de cada minero es independiente. Sí aprenden en el sentido de que un minero podría tomar muestras interesantes de otros para ajustarse, pero eso es completamente opcional y depende de cada uno. Si un actor malicioso enviara spam de respuestas sin sentido, los validadores honestos lo filtrarían (le darían una puntuación baja), por lo que no influiría significativamente en el proceso de entrenamiento de ningún minero honesto (además, un minero probablemente usaría el conocimiento de sus pares con alta puntuación, no de los de baja puntuación). Así que el envenenamiento de datos clásico (inyectar datos de entrenamiento malos para corromper un modelo) es mínimo en la configuración actual de Bittensor. El riesgo más relevante es la manipulación de la respuesta del modelo: por ejemplo, un minero que produce contenido sutilmente sesgado o peligroso que no es obvio para los validadores. Sin embargo, dado que los validadores también son diseñados por humanos o al menos agentes algorítmicos, es probable que se detecte la toxicidad o el error flagrante (algunas subredes incluso podrían tener validadores de IA que verifiquen contenido inseguro). Un escenario del peor de los casos es si un atacante de alguna manera tuviera la mayoría de los validadores y mineros coludiendo para impulsar una cierta salida incorrecta como "correcta"; entonces podrían sesgar el consenso de la red sobre las respuestas (como todos los validadores en colusión votando a favor de una respuesta maliciosa). Pero para que un usuario externo se vea perjudicado por eso, tendría que consultar realmente la red y confiar en la salida. Bittensor todavía está en una fase en la que está construyendo capacidad, no siendo ampliamente utilizado para consultas críticas por parte de los usuarios finales. Para cuando lo sea, se espera que tenga filtrado de contenido y diversidad de validadores para mitigar tales riesgos. Por el lado del validador, un validador malicioso podría alimentar evaluaciones envenenadas, por ejemplo, votando consistentemente en contra de un cierto minero honesto para eliminar la competencia. Con suficiente stake, podrían tener éxito en expulsar a ese minero (si las recompensas del minero caen tan bajo que se van). Este es un ataque al mecanismo de incentivos. Nuevamente, si no son mayoría, el recorte de la mediana frustrará a un validador atípico. Si son mayoría, se fusiona con el escenario de colusión/51 %: cualquier mayoría puede reescribir las reglas. La solución vuelve a la descentralización: evitar que una sola entidad domine. En resumen, el diseño de Bittensor inherentemente penaliza las contribuciones de datos/modelos envenenados a través de su sistema de puntuación: las malas contribuciones obtienen un peso bajo y, por lo tanto, una baja recompensa. No hay un repositorio de modelos permanente que envenenar; todo es dinámico y se evalúa continuamente. Esto proporciona resiliencia: la red puede "olvidar" o ignorar gradualmente a los malos actores a medida que sus contribuciones son filtradas por los validadores.

  • Gensyn: Si un resolutor quisiera envenenar un modelo que se está entrenando (como introducir una puerta trasera o un sesgo durante el entrenamiento), podría intentar hacerlo de forma encubierta. El protocolo de Gensyn verificaría que el entrenamiento procedió de acuerdo con el algoritmo especificado (pasos de descenso de gradiente estocástico, etc.), pero no necesariamente detectaría si el resolutor introdujo un sutil activador de puerta trasera que no aparece en las métricas de validación normales. Este es un problema más insidioso: no es un fallo de la computación, es una manipulación dentro de los grados de libertad permitidos del entrenamiento (como ajustar los pesos hacia una frase activadora). Detectar eso es un problema de investigación activo en seguridad de ML. Gensyn no tiene un mecanismo especial para el envenenamiento de modelos más allá del hecho de que el solicitante podría evaluar el modelo final en un conjunto de prueba de su elección. Un solicitante inteligente siempre debería probar el modelo devuelto; si encuentra que falla en algunas entradas o tiene un comportamiento extraño, puede disputar el resultado o negarse a pagar. Quizás el protocolo podría permitir que un solicitante especifique ciertos criterios de aceptación (como "el modelo debe alcanzar al menos una precisión X en este conjunto de prueba secreto") y si el resultado del resolutor falla, el resolutor no recibe el pago completo. Esto disuadiría el envenenamiento porque el atacante no cumpliría los criterios de evaluación. Sin embargo, si el veneno no afecta la precisión en las pruebas normales, podría pasar desapercibido. Los verificadores en Gensyn solo comprueban la integridad de la computación, no la calidad del modelo, por lo que no detectarían un sobreajuste intencional o troyanos siempre que los registros de entrenamiento parezcan válidos. Por lo tanto, esto sigue siendo un problema de confianza a nivel de tarea: el solicitante tiene que confiar en que el resolutor no envenenará el modelo o usar métodos como el ensamblaje de múltiples resultados de entrenamiento de diferentes resolutores para diluir la influencia de un solo resolutor. Otro ángulo es el envenenamiento de datos: si el solicitante proporciona datos de entrenamiento, un resolutor malicioso podría ignorar esos datos y entrenar con otra cosa o agregar datos basura. Pero eso probablemente reduciría la precisión, lo que el solicitante notaría en el rendimiento del modelo de salida. El resolutor entonces no recibiría el pago completo (ya que presumiblemente quieren cumplir un objetivo de rendimiento). Así que el envenenamiento que degrada el rendimiento es contraproducente para la recompensa del resolutor. Solo un veneno que es neutral en rendimiento pero malicioso (una puerta trasera) es un peligro real, y eso está fuera del alcance de la verificación típica de blockchain; es un desafío de seguridad del aprendizaje automático. La mejor mitigación de Gensyn es probablemente social: usar modelos de reputación conocida, tener múltiples ejecuciones de entrenamiento, usar herramientas de código abierto. En tareas de inferencia (si Gensyn también se usa para trabajos de inferencia), un resolutor en colusión podría devolver salidas incorrectas que sesguen una cierta respuesta. Pero los verificadores detectarían las salidas incorrectas si ejecutan el mismo modelo, por lo que eso es menos un envenenamiento y más simplemente hacer trampa, lo que las pruebas de fraude abordan. En resumen, Gensyn asegura el proceso, no la intención. Asegura que el entrenamiento/inferencia se realizó correctamente, pero no que el resultado sea bueno o libre de maldades ocultas. Eso sigue siendo un problema abierto, y el whitepaper de Gensyn probablemente no lo resuelve por completo todavía (pocos lo hacen).

  • Cuckoo: Dado que Cuckoo actualmente se enfoca en la inferencia (servir modelos existentes), el riesgo de envenenamiento de datos/modelos se limita relativamente a la manipulación de la salida o al envenenamiento de contenido. Un minero malicioso podría intentar manipular el modelo que se le da para ejecutar; por ejemplo, si se le proporciona un punto de control de Stable Diffusion, podría cambiarlo por un modelo diferente que quizás inserte alguna marca de agua sutil o publicidad en cada imagen. Sin embargo, el coordinador (que es el propietario del modelo) típicamente envía tareas con una expectativa del formato de salida; si un minero devuelve salidas fuera de especificación de manera consistente, el coordinador marcará y prohibirá a ese minero. Además, los mineros no pueden modificar fácilmente un modelo sin afectar notablemente sus salidas. Otro escenario es si Cuckoo introduce modelos entrenados por la comunidad: entonces los mineros o proveedores de datos podrían intentar envenenar los datos de entrenamiento (por ejemplo, introduciendo muchas etiquetas incorrectas o texto sesgado). Cuckoo necesitaría implementar la validación de datos de crowdsourcing o la ponderación de los contribuyentes. Esto aún no es una característica, pero el interés del equipo en la IA personalizada (como su mención de un entrenador de vida de IA o aplicaciones de aprendizaje) significa que eventualmente podrían manejar datos de entrenamiento proporcionados por el usuario, lo que requerirá verificaciones cuidadosas. En cuanto a la seguridad del contenido, dado que los mineros de Cuckoo realizan inferencias, uno podría preocuparse de que produzcan contenido dañino incluso si el modelo normalmente no lo haría. Pero los mineros no tienen un incentivo para alterar las salidas arbitrariamente; se les paga por la computación correcta, no por la creatividad. En todo caso, un minero malicioso podría saltarse la computación completa para ahorrar tiempo (por ejemplo, devolver una imagen borrosa o una respuesta genérica). El coordinador o el usuario verían eso y calificarían negativamente a ese minero (y probablemente no pagarían por esa tarea). La privacidad es otra faceta: un minero malicioso podría filtrar o registrar datos del usuario (como si un usuario ingresara texto o imágenes sensibles). Esto no es envenenamiento, pero es un ataque a la confidencialidad. La postura de privacidad de Cuckoo es que está explorando métodos de preservación de la privacidad (la mención de una VPN que preserva la privacidad en el ecosistema sugiere un enfoque futuro). Podrían incorporar técnicas como enclaves seguros o inferencia dividida para mantener los datos privados de los mineros. Aún no está implementado, pero es una consideración conocida. Finalmente, el blog de Cuckoo enfatiza la verificación efectiva de los resultados del modelo y la garantía de una operación segura del modelo descentralizado como clave para hacer viable la tokenización de modelos. Esto indica que son conscientes de que para descentralizar verdaderamente la IA, uno debe protegerse contra cosas como salidas envenenadas o modelos que funcionan mal. Posiblemente, tienen la intención de usar una combinación de incentivos criptoeconómicos (slashing de stake para malos actores) y sistemas de calificación de usuarios (los usuarios pueden marcar salidas incorrectas, y esos mineros pierden reputación). El sistema de reputación puede ayudar aquí: si un minero devuelve incluso un resultado obviamente malicioso o incorrecto, los usuarios/coordinadores pueden votarlos negativamente, afectando fuertemente su capacidad de ganancia futura. Sabiendo esto, los mineros están incentivados a ser consistentemente correctos y no introducir ningún veneno. En esencia, Cuckoo se basa en la confianza pero verifica: es más tradicional en el sentido de que si alguien se comporta mal, lo identificas y lo eliminas (con la pérdida de stake como castigo). Todavía no tiene defensas especializadas para el envenenamiento sutil de modelos, pero la estructura de tener propietarios de aplicaciones específicos (coordinadores) a cargo agrega una capa de supervisión; esos propietarios estarán motivados para asegurarse de que nada comprometa la integridad de su modelo, ya que sus propios ingresos y reputación dependen de ello.

En conclusión, si bien las redes de IA descentralizadas introducen nuevas superficies de ataque, también despliegan una mezcla de defensas criptográficas, de teoría de juegos y de gobernanza comunitaria: La resistencia Sybil se maneja en gran medida requiriendo una participación económica para la participación. La resistencia a la colusión proviene de la alineación de incentivos (el comportamiento honesto es más rentable) y mecanismos de consenso que limitan el impacto de pequeños grupos en colusión. La prevención del parasitismo (freerider) se logra vinculando estrechamente las recompensas con el trabajo útil real y penalizando o eliminando a aquellos que no contribuyen en nada. El envenenamiento y ataques relacionados siguen siendo desafiantes, pero los sistemas mitigan los casos flagrantes a través de la evaluación continua y la capacidad de aplicar slashing o expulsar a los actores maliciosos. Estas plataformas están investigando e iterando activamente en estos diseños, como lo demuestran los continuos ajustes de Bittensor a Yuma y dTAO, y el cambio de Cuckoo en la economía de sus tokens, para garantizar un ecosistema de IA descentralizado, seguro y autosostenible.

Evaluación Comparativa

Para resaltar las diferencias y similitudes de Bittensor, Gensyn y Cuckoo AI, la siguiente tabla proporciona una comparación lado a lado a través de dimensiones clave:

DimensiónBittensor (TAO)GensynCuckoo AI (CAI)
Pila TecnológicaL1 personalizada (cadena Subtensor basada en Substrate) con más de 93 subredes de IA especializadas. Compatible con EVM (después de una actualización reciente) en su propia cadena.Rollup basado en Ethereum (originalmente se planeó una L1, ahora es un rollup de ETH). Cómputo fuera de la cadena con verificación en la cadena.Lanzada como una cadena de Capa 2 de Arbitrum Orbit (rollup EVM). Plataforma full-stack (cadena propia + cómputo + UI de aplicación). Migrando de una L1 personalizada a la seguridad compartida de Ethereum (rollup/AVS).
Enfoque PrincipalRed de IA descentralizada de modelos ("internet neuronal"). Los nodos contribuyen a la inferencia y entrenamiento de modelos colectivos en diversas tareas (LLM, visión, etc.).Mercado de cómputo descentralizado para ML. Énfasis en el entrenamiento de modelos e inferencia fuera de la cadena por GPUs globales, verificando el trabajo a través de la blockchain.Plataforma de servicios de IA descentralizada. Enfoque en el servicio/inferencia de modelos (por ejemplo, arte generativo, API de LLM) utilizando mineros de GPU distribuidos. Integra aplicaciones de usuario final con un mercado de GPU backend.
Roles ClavePropietario de Subred: define la tarea y la validación en una subred (gana el 18 % de las recompensas).
Mineros: ejecutan modelos de IA (inferencia/entrenamiento), proporcionan respuestas.
Validadores: plantean consultas y califican los resultados de los mineros (curan la calidad).
Delegadores: hacen stake de TAO en mineros/validadores para amplificar y ganar una parte.
Solicitante (Desarrollador): publica un trabajo de ML (con modelo/datos) y el pago.
Resolutor: computa la tarea en su hardware, envía el resultado.
Verificador (Vigilante): comprueba el resultado del resolutor; puede desafiar mediante una prueba de fraude si es incorrecto.
(No hay un rol de "propietario" distinto ya que el solicitante proporciona el modelo; los roles de gobernanza son a través de los poseedores de tokens).
Constructor de Aplicaciones de IA (Coordinador): despliega un servicio de modelo de IA, hace stake de CAI, gestiona tareas para los mineros.
Minero (Proveedor de GPU/CPU): hace stake de CAI, realiza tareas de inferencia asignadas, devuelve resultados.
Usuario Final: utiliza aplicaciones de IA (paga en cripto o contribuye con recursos).
Staker (Delegador): hace stake en coordinadores/mineros, vota en la gobernanza, gana una parte de las recompensas.
Consenso y VerificaciónConsenso Yuma: "prueba de inteligencia" personalizada: las puntuaciones de los validadores sobre los resultados de IA se agregan (mediana ponderada por stake) para determinar las recompensas de los mineros. El consenso de la cadena subyacente es similar a PoS (Substrate) para los bloques, pero la validez del bloque depende del consenso de IA en cada época. Resistente a puntuaciones atípicas y colusión hasta el 50 %.Verificación optimista (estilo Truebit): se asume que el resultado del resolutor es correcto a menos que un verificador lo desafíe. Utiliza pruebas de fraude interactivas en la cadena para señalar cualquier paso incorrecto. También implementa pruebas criptográficas de computación (prueba de aprendizaje) para validar el progreso del entrenamiento sin re-ejecución. Ethereum proporciona el consenso base para las transacciones.Cadena de Prueba de Participación (PoS) + validación de tareas por coordinadores: La Cuckoo Chain usaba validadores PoS para la producción de bloques (inicialmente, los mineros también ayudaban a asegurar los bloques). Los resultados de las tareas de IA son verificados por los nodos coordinadores (que comprueban los resultados de los mineros contra el comportamiento esperado del modelo). Aún no hay pruebas criptográficas especializadas; se basa en el stake y la reputación (sin confianza en la medida en que el mal comportamiento conduce a slashing o votación negativa en lugar de una detección automática por prueba matemática). Transición al consenso de Ethereum (rollup) para la seguridad del libro mayor.
Token y UtilidadToken TAO: moneda nativa en Subtensor. Se utiliza para staking (requerido para registrarse e influir en el consenso), tarifas de transacción/pagos (por ejemplo, pagar por consultas de IA), y como recompensa por contribuciones (minería/validación). TAO tiene una inflación continua (1 TAO por bloque de 12s) que impulsa el mecanismo de recompensa. También se usa en la gobernanza (staking de dTAO en subredes).Token Gensyn (ERC-20, nombre por anunciar): la unidad del protocolo para pagos (los desarrolladores pagan a los resolutores con él). Funciona como garantía de stake (los resolutores/verificadores depositan tokens y son penalizados con slashing por fallos). Se usará en la gobernanza (votación sobre actualizaciones del protocolo a través de la DAO de la Fundación Gensyn). Aún no hay detalles sobre el suministro; probablemente una porción se asigne para incentivar la adopción temprana (testnet, etc.).Token CAI (ERC-20): token nativo de la Cuckoo Chain (1 mil millones de suministro fijo). Multipropósito: tarifa de gas para transacciones en la Cuckoo Chain, staking para roles de red (mineros, coordinadores deben bloquear CAI), votación de gobernanza sobre decisiones del protocolo, y recompensas por contribuciones (las recompensas de minería/staking provenían de la asignación inicial). También tiene un atractivo de meme (aspecto de token comunitario).
Tokenización de ActivosCómputo: sí – el trabajo de cómputo de IA se tokeniza a través de recompensas de TAO (piensa en TAO como "gas" para la inteligencia). Modelos: indirectamente – los modelos ganan TAO según su rendimiento, pero los modelos/pesos en sí no son activos en la cadena (no hay NFT para modelos). La propiedad de la subred está tokenizada (NFT de propietario de subred + tokens alfa) para representar una participación en un mercado de modelos. Datos: no tokenizados (los datos están fuera de la cadena; Bittensor se enfoca en los resultados de los modelos en lugar de los conjuntos de datos).Cómputo: sí – el cómputo inactivo se convierte en una mercancía en la cadena, comercializada en un mercado de trabajos por tokens. Modelos: no explícitamente – los modelos son proporcionados fuera de la cadena por los desarrolladores, y los resultados se devuelven; no hay tokens de modelo incorporados (aunque el protocolo podría facilitar la concesión de licencias si las partes lo configuran). Datos: no – los conjuntos de datos se manejan fuera de la cadena entre el solicitante y el resolutor (podrían estar encriptados o protegidos, pero no representados como activos en la cadena). La visión de Gensyn incluye posiblemente el comercio de algoritmos o datos como el cómputo, pero la implementación principal se centra en el cómputo.Cómputo: sí – el tiempo de GPU se tokeniza a través de pagos diarios de CAI y recompensas por tareas. La red trata el poder de cómputo como un recurso que los mineros "venden" por CAI. Modelos: parcialmente – la plataforma integra modelos como servicios; sin embargo, los modelos en sí no se acuñan como NFT. El valor de un modelo se captura en la capacidad del coordinador para ganar CAI de los usuarios que lo utilizan. Los planes futuros insinúan modelos de propiedad comunitaria, pero actualmente la PI del modelo está fuera de la cadena (propiedad de quien ejecuta el coordinador). Datos: no hay tokenización general de datos. Las entradas/salidas de los usuarios son transitorias. (Cuckoo se asocia con aplicaciones como Beancount, etc., pero los datos no están representados por tokens en la cadena).
GobernanzaDescentralizada, impulsada por los poseedores de tokens (dTAO): Inicialmente tenía 64 validadores electos que ejecutaban el consenso raíz; ahora la gobernanza es abierta: los poseedores de TAO hacen stake en subredes para dirigir las emisiones (asignación de recursos basada en el mercado). Las actualizaciones y cambios del protocolo se deciden a través de propuestas en la cadena (votación de TAO, con la Fundación/consejo de Bittensor facilitando). El objetivo es ser completamente gobernado por la comunidad, con la fundación cediendo gradualmente el control.Descentralización progresiva: La Fundación Gensyn + un consejo electo gestionan las decisiones tempranas. Después del lanzamiento del token, la gobernanza pasará a una DAO donde los poseedores de tokens votan sobre propuestas (similar a muchos proyectos DeFi). El entorno de seguridad compartida de Ethereum significa que los cambios importantes involucran a la comunidad y potencialmente a la gobernanza de la Capa 1. El alcance de la gobernanza incluye parámetros económicos, actualizaciones de contratos (sujetas a auditorías de seguridad). Aún no está en vivo, pero se describe en el litepaper para después de la mainnet.Mixta comunidad y fundación: Cuckoo se lanzó con un ethos de "lanzamiento justo" (sin pre-minado para insiders). Se pretende una DAO comunitaria, con votación de CAI sobre decisiones clave y actualizaciones del protocolo. En la práctica, el equipo central (desarrolladores de Cuckoo Network) ha liderado decisiones importantes (como el cierre de la cadena), pero comparten la justificación de forma transparente y la posicionan como una evolución para el beneficio de la comunidad. Es probable que las características de gobernanza en la cadena (propuestas, votación) lleguen cuando el nuevo rollup esté en su lugar. El staking también da influencia en la gobernanza de manera informal a través del sistema de reputación (votos ponderados por stake para nodos de confianza).
Modelo de IncentivosRecompensas inflacionarias vinculadas a la contribución: ~1 TAO por bloque distribuido a los participantes según el rendimiento. Calidad = más recompensa. Mineros y validadores ganan continuamente (bloque a bloque), además los delegadores ganan una parte. TAO también es utilizado por los usuarios finales para pagar por servicios (creando un lado de demanda para el token). La economía del token está diseñada para fomentar la participación a largo plazo (staking) y la mejora constante de los modelos, similar a los mineros de Bitcoin pero "minando IA". Los problemas potenciales (centralización del stake que conduce a recompensas desalineadas) se están abordando mediante ajustes de incentivos.Impulsado por el mercado, pago por resultados: Sin rendimiento inflacionario continuo (más allá de posibles incentivos iniciales); los resolutores solo reciben pago cuando hacen el trabajo con éxito. Los verificadores solo reciben pago al atrapar un fraude (incentivo jackpot). Esto crea una economía directa: el gasto de los desarrolladores = las ganancias de los proveedores. El valor del token está ligado a la demanda real de cómputo. Para arrancar, Gensyn probablemente recompense a los usuarios de la testnet en el lanzamiento (distribución única), pero en estado estable, se basa en el uso. Esto alinea estrechamente los incentivos con la utilidad de la red (si los trabajos de IA aumentan, el uso del token aumenta, beneficiando a todos los poseedores).Híbrido (pasando de la inflación a las tarifas de uso): Inicialmente, las asignaciones de minería y staking del pool comunitario del 51 % recompensaban a los mineros de GPU (30 % del suministro) y a los stakers (11 %) independientemente del uso externo; esto era para impulsar los efectos de red. Con el tiempo, y especialmente después del cierre de la L1, el énfasis está en el reparto de ingresos: los mineros y los desarrolladores de aplicaciones ganan de los pagos reales de los usuarios (por ejemplo, dividiendo las tarifas por una generación de imágenes). El rendimiento de los stakers se derivará de una porción del uso real o se ajustará para fomentar el apoyo solo a nodos productivos. Así que el incentivo inicial era "hacer crecer la red" (alto APY, airdrops) y más tarde es "la red crece si es realmente útil" (ganancias de los clientes). Esta transición está diseñada para eliminar a los parásitos y garantizar la sostenibilidad.
Seguridad y Mitigaciones de AtaquesSybil: El registro costoso (stake de TAO) disuade a los Sybils. Colusión: El consenso de mediana resiste la colusión hasta el 50 % del stake; dTAO rompió una oligarquía de validadores al empoderar la votación de los poseedores de tokens. Deshonestidad: Los validadores que se desvían del consenso pierden parte de la recompensa (incentiva la puntuación honesta). El ataque del 51 % es posible si el stake está muy concentrado; la investigación sugiere agregar límites de stake y slashing por rendimiento para mitigarlo. Ataques a modelos: Los resultados de modelos deficientes o maliciosos son penalizados con bajas puntuaciones. No hay un único punto de fallo: la red está descentralizada globalmente (los mineros de TAO existen en todo el mundo, pseudoanónimos).Sybil: Requiere una participación económica; los nodos falsos sin stake/trabajo no ganan nada. Verificación: Se necesita al menos un verificador honesto; si es así, cualquier resultado incorrecto es atrapado y penalizado. Utiliza incentivos criptoeconómicos para que hacer trampa no sea rentable (el resolutor pierde el depósito, el verificador gana). Colusión: Seguro siempre que no todas las partes coludan; uno honesto rompe el esquema al revelar el fraude. Confianza: No depende de la confianza en el hardware o las empresas, solo en la teoría de juegos económicos y la criptografía. Ataques: Difícil de censurar o hacer DoS ya que las tareas están distribuidas; un atacante necesitaría superar en la puja a los nodos honestos o vencer consistentemente la prueba de fraude (poco probable sin el control mayoritario). Sin embargo, las puertas traseras sutiles en los modelos podrían evadir la detección, lo cual es un desafío conocido (mitigado por las pruebas de usuario y posiblemente futuras auditorías más allá de la ejecución correcta). La seguridad general es análoga a un rollup optimista para el cómputo.Sybil: Todos los actores deben hacer stake de CAI, elevando la barrera para los Sybils. Además, un sistema de reputación (staking + votación) significa que las identidades Sybil sin reputación no obtendrán tareas. Mal comportamiento de los nodos: Los coordinadores pueden eliminar a los mineros de bajo rendimiento o sospechosos; los stakers pueden retirar su apoyo. El protocolo puede aplicar slashing al stake por fraude probado (la L1 tenía condiciones de slashing para el consenso; algo similar podría aplicarse al fraude en las tareas). Colusión: Parcialmente basada en la confianza; se basa en la competencia abierta y la supervisión de la comunidad para evitar que la colusión domine. Dado que las tareas y los pagos son públicos en la cadena, la colusión flagrante puede ser identificada y castigada socialmente o a través de la gobernanza. Protección del usuario: Los usuarios pueden cambiar de proveedor si uno es censurado o corrompido, asegurando que no haya un único punto de control. Envenenamiento/contenido: Por diseño, los mineros ejecutan los modelos proporcionados tal cual; si alteran las salidas maliciosamente, pierden reputación y recompensas. El sistema apuesta por actores racionales: como todos tienen valor en stake y potencial de ganancia futuro, están desincentivados de ataques que socavarían la confianza en la red (reforzado por las duras lecciones de su experimento L1 sobre alinear incentivos con utilidad).

Tabla: Comparación de características de Bittensor, Gensyn y Cuckoo AI en arquitectura, enfoque, roles, consenso, tokens, tokenización de activos, gobernanza, incentivos y seguridad.

IA verificable en movimiento: cómo los zk-SNARKs dinámicos de Lagrange Labs habilitan la confianza continua

· 7 min de lectura
Dora Noda
Software Engineer

En los mundos cada vez más convergentes de la inteligencia artificial y la blockchain, la demanda de confianza y transparencia nunca ha sido tan alta. ¿Cómo podemos estar seguros de que la salida de un modelo de IA es precisa y no ha sido manipulada? ¿Cómo podemos realizar cálculos complejos sobre enormes conjuntos de datos on‑chain sin comprometer la seguridad o la escalabilidad? Lagrange Labs está abordando estas preguntas de frente con su suite de infraestructura de conocimiento cero (ZK), con el objetivo de construir un futuro de “IA que puedes probar”. Este artículo ofrece una visión objetiva de su misión, tecnología y avances recientes, culminando con su último paper sobre zk‑SNARKs dinámicos.

1. El equipo y su misión

Lagrange Labs está construyendo la infraestructura fundamental para generar pruebas criptográficas para cualquier inferencia de IA o aplicación on‑chain. Su objetivo es hacer que el cómputo sea verificable, aportando una nueva capa de confianza al mundo digital. Su ecosistema se sustenta en tres líneas de producto principales:

  • Red de Provers ZK: Una red descentralizada de más de 85 nodos de prueba que suministra la potencia computacional necesaria para una amplia gama de tareas de prueba, desde IA y rollups hasta aplicaciones descentralizadas (dApps).
  • DeepProve (zkML): Un sistema especializado para generar pruebas ZK de inferencias de redes neuronales. Lagrange afirma que es hasta 158 veces más rápido que las soluciones competidoras, haciendo que la IA verificable sea una realidad práctica.
  • ZK Coprocessor 1.0: El primer coprocesador ZK basado en SQL, que permite a los desarrolladores ejecutar consultas personalizadas sobre enormes conjuntos de datos on‑chain y recibir resultados verificablemente precisos.

2. Una hoja de ruta hacia la IA verificable

Lagrange ha estado ejecutando metódicamente una hoja de ruta diseñada para resolver los desafíos de la verificabilidad de la IA paso a paso.

  • Q3 2024: Lanzamiento del ZK Coprocessor 1.0: Esta versión introdujo circuitos recursivos hiper‑paralelos, que entregaron un aumento de velocidad promedio de aproximadamente 2×. Proyectos como Azuki y Gearbox ya están aprovechando el coprocesador para sus necesidades de datos on‑chain.
  • Q1 2025: Presentación de DeepProve: Lagrange anunció DeepProve, su solución para Machine Learning de Conocimiento Cero (zkML). Soporta arquitecturas de redes neuronales populares como Perceptrones Multicapa (MLP) y Redes Neuronales Convolucionales (CNN). El sistema logra una aceleración significativa, de orden de magnitud, en las tres etapas críticas: configuración única, generación de pruebas y verificación, con mejoras de velocidad de hasta 158×.
  • Q2 2025: Paper sobre zk‑SNARKs dinámicos (último hito): Este paper introduce un algoritmo de “actualización” revolucionario. En lugar de regenerar una prueba desde cero cada vez que los datos o el cómputo subyacente cambian, este método puede parchear una prueba antigua (π) en una nueva prueba (π′). Esta actualización se puede realizar con una complejidad de solo O(√n log³n), una mejora dramática respecto a la recomputación completa. Esta innovación es particularmente adecuada para sistemas dinámicos como modelos de IA que aprenden continuamente, lógica de juegos en tiempo real y contratos inteligentes en evolución.

3. Por qué los zk‑SNARKs dinámicos son importantes

La introducción de pruebas actualizables representa un cambio fundamental en el modelo de costos de la tecnología de conocimiento cero.

  • Un nuevo paradigma de costos: La industria pasa de un modelo de “recomputación total para cada prueba” a “pruebas incrementales basadas en el tamaño del cambio”. Esto reduce drásticamente el costo computacional y financiero para aplicaciones que sufren actualizaciones frecuentes y menores.
  • Implicaciones para la IA:
    • Ajuste fino continuo: Cuando se ajusta menos del 1 % de los parámetros de un modelo, el tiempo de generación de la prueba crece casi linealmente con el número de parámetros cambiados (Δ parámetros), en lugar de con el tamaño total del modelo.
    • Inferencia en streaming: Esto permite generar pruebas concurrentemente con el propio proceso de inferencia. Reduce drásticamente la latencia entre que una IA toma una decisión y que esa decisión sea asentada y verificada on‑chain, abriendo casos de uso como servicios de IA on‑chain y pruebas comprimidas para rollups.
  • Implicaciones para aplicaciones on‑chain:
    • Los zk‑SNARKs dinámicos ofrecen enormes optimizaciones de gas y tiempo para aplicaciones caracterizadas por cambios de estado frecuentes y pequeños. Esto incluye libros de órdenes de exchanges descentralizados (DEX), estados de juegos en evolución y actualizaciones de libros contables con adiciones o eliminaciones frecuentes.

4. Un vistazo al stack tecnológico

La poderosa infraestructura de Lagrange se construye sobre un stack tecnológico sofisticado e integrado:

  • Diseño de circuitos: El sistema es flexible, soportando la incorporación de modelos ONNX (Open Neural Network Exchange), parsers SQL y operadores personalizados directamente en sus circuitos.
  • Recursión y paralelismo: La Red de Provers ZK facilita pruebas recursivas distribuidas, mientras que el ZK Coprocessor aprovecha el sharding de “micro‑circuitos” para ejecutar tareas en paralelo, maximizando la eficiencia.
  • Incentivos económicos: Lagrange está planificando lanzar un token nativo, LA, que se integrará en un sistema Double‑Auction‑for‑Recursive‑Auction (DARA). Esto creará un mercado robusto para pujar por el cómputo de los probadores, con incentivos y penalizaciones que aseguren la integridad de la red.

5. Ecosistema y adopción en el mundo real

Lagrange no está construyendo en un vacío; su tecnología ya está siendo integrada por un número creciente de proyectos en distintos sectores:

  • IA y ML: Proyectos como 0G Labs y Story Protocol están usando DeepProve para verificar los resultados de sus modelos de IA, garantizando procedencia y confianza.
  • Rollups e infraestructura: Jugadores clave como EigenLayer, Base y Arbitrum participan en la Red de Provers ZK como nodos de validación o socios de integración, contribuyendo a su seguridad y potencia computacional.
  • Aplicaciones NFT y DeFi: Marcas como Azuki y protocolos DeFi como Gearbox están utilizando el ZK Coprocessor para mejorar la credibilidad de sus consultas de datos y mecanismos de distribución de recompensas.

6. Desafíos y el camino por delante

A pesar de su impresionante progreso, Lagrange Labs y el campo más amplio de ZK enfrentan varios obstáculos:

  • Cuellos de botella de hardware: Incluso con una red distribuida, los SNARKs actualizables siguen demandando gran ancho de banda y dependen de curvas criptográficas amigables con GPU para operar eficientemente.
  • Falta de estandarización: El proceso de mapear frameworks de IA como ONNX y PyTorch a circuitos ZK aún carece de una interfaz universal y estandarizada, creando fricción para los desarrolladores.
  • Un panorama competitivo: La carrera por construir zkVMs y plataformas zkCompute generalizadas se está intensificando. Competidores como Risc‑Zero y Succinct también están logrando avances significativos. El ganador final podría ser quien sea el primero en comercializar una cadena de herramientas amigable para desarrolladores y impulsada por la comunidad.

7. Conclusión

Lagrange Labs está remodelando metódicamente la intersección de IA y blockchain a través del lente de la verificabilidad. Su enfoque ofrece una solución integral:

  • DeepProve aborda el desafío de la inferencia confiable.
  • El ZK Coprocessor resuelve el problema de los datos confiables.
  • Los zk‑SNARKs dinámicos incorporan la necesidad del mundo real de actualizaciones continuas directamente en el sistema de pruebas.

Si Lagrange puede mantener su ventaja de rendimiento, resolver el desafío crítico de la estandarización y seguir ampliando su robusta red, estará bien posicionada para convertirse en un jugador fundamental en el emergente sector de “IA + Infraestructura ZK”.

Camp Network: La blockchain que aborda el problema de propiedad intelectual de miles de millones de dólares de la IA 🏕️

· 6 min de lectura
Dora Noda
Software Engineer

El auge de la IA generativa ha sido nada menos que explosivo. Desde impresionantes obras de arte digital hasta textos con apariencia humana, la IA está creando contenido a una escala sin precedentes. Pero este boom tiene un lado oscuro: ¿de dónde obtiene la IA sus datos de entrenamiento? A menudo, provienen de la vasta extensión de internet: arte, música y escritos creados por humanos que no reciben crédito ni compensación.

Entra Camp Network, un nuevo proyecto de blockchain que busca resolver este problema fundamental. No es solo otra plataforma cripto; es una “Capa de Propiedad Intelectual Autónoma” diseñada para dar a los creadores la propiedad y el control sobre su trabajo en la era de la IA. Veamos qué hace de Camp Network un proyecto a seguir.


¿Cuál es la gran idea?

En esencia, Camp Network es una blockchain que actúa como un registro global y verificable de propiedad intelectual (IP). La misión es permitir que cualquiera —desde un artista independiente hasta un usuario de redes sociales— registre su contenido en cadena. Esto crea un registro permanente e inalterable de propiedad y procedencia.

¿Por qué importa? Cuando un modelo de IA utiliza contenido registrado en Camp, los contratos inteligentes de la red pueden hacer cumplir automáticamente los términos de licencia. Esto significa que el creador original puede obtener atribución e incluso recibir pagos de regalías al instante. La visión de Camp es construir una nueva economía de creadores donde la compensación no sea una reflexión posterior; esté integrada directamente en el protocolo.


Bajo el capó: la pila tecnológica

Camp no es solo un concepto; está respaldado por tecnología seria diseñada para alto rendimiento y facilidad de desarrollo.

  • Arquitectura modular: Camp está construido como un rollup soberano usando Celestia para la disponibilidad de datos. Este diseño le permite ser increíblemente rápido (objetivo de 50 000 transacciones por segundo) y económico, mientras sigue siendo totalmente compatible con las herramientas de Ethereum (EVM).
  • Prueba de Procedencia (PoP): Este es el mecanismo de consenso único de Camp. En lugar de depender de la minería intensiva en energía, la seguridad de la red está vinculada a la verificación del origen del contenido. Cada transacción refuerza la procedencia de la IP en la red, haciendo que la propiedad sea “ejecutable por diseño”.
  • Estrategia de doble VM: Para maximizar el rendimiento, Camp está integrando la Solana Virtual Machine (SVM) junto con su compatibilidad EVM. Esto permite a los desarrolladores elegir el entorno más adecuado para su aplicación, especialmente en casos de uso de alto rendimiento como interacciones de IA en tiempo real.
  • Kits para creadores y IA: Camp ofrece dos marcos clave:
    • Origin Framework: Un sistema fácil de usar para que los creadores registren su IP, la tokenicen (como NFT) e incorporen reglas de licencia.
    • mAItrix Framework: Un kit de herramientas para que los desarrolladores construyan y desplieguen agentes de IA que puedan interactuar con la IP on‑chain de forma segura y con permisos.

Personas, alianzas y avances

Una idea solo es tan buena como su ejecución, y Camp parece estar ejecutando bien.

El equipo y la financiación

El proyecto está liderado por un equipo con una combinación potente de experiencia en The Raine Group (medios y acuerdos de IP), Goldman Sachs, Figma y CoinList. Esta mezcla de finanzas, productos tecnológicos y experiencia en ingeniería cripto les ha permitido asegurar 30 millones de dólares en financiación de VCs de primer nivel como 1kx, Blockchain Capital y Maven 11.

Un ecosistema en crecimiento

Camp ha sido agresivo en construir alianzas. La más significativa es una participación estratégica en KOR Protocol, una plataforma para tokenizar IP musical que trabaja con artistas de renombre como Deadmau5 y franquicias como Black Mirror. Esta única alianza brinda a Camp una biblioteca masiva de contenido de alto perfil con derechos claros. Otros colaboradores clave incluyen:

  • RewardedTV: Plataforma descentralizada de streaming de video que usa Camp para derechos de contenido on‑chain.
  • Rarible: Mercado de NFT integrado para el comercio de activos de IP.
  • LayerZero: Protocolo cross‑chain que garantiza interoperabilidad con otras blockchains.

Hoja de ruta y comunidad

Tras campañas exitosas de testnet incentivado que atrajeron a decenas de miles de usuarios (recompensándolos con puntos que se convertirán en tokens), Camp apunta a un lanzamiento de mainnet en el Q3 2025. Esto irá acompañado de un Evento de Generación de Tokens para su token nativo, $CAMP, que se usará para tarifas de gas, staking y gobernanza. El proyecto ya ha cultivado una comunidad apasionada dispuesta a construir y usar la plataforma desde el primer día.


¿Cómo se compara?

Camp Network no está solo en este espacio. Enfrenta una competencia fuerte de proyectos como Story Protocol, respaldado por a16z, y Soneium, vinculado a Sony. Sin embargo, Camp se diferencia en varios aspectos clave:

  1. Enfoque de abajo hacia arriba: Mientras los competidores parecen dirigirse a grandes titulares de IP corporativa, Camp se centra en empoderar a creadores independientes y comunidades cripto mediante incentivos tokenizados.
  2. Solución integral: Ofrece un conjunto completo de herramientas, desde un registro de IP hasta un marco de agentes de IA, posicionándose como una solución “todo en uno”.
  3. Rendimiento y escalabilidad: Su arquitectura modular y soporte de doble VM están diseñados para las altas demandas de rendimiento de IA y medios.

Conclusión

Camp Network está presentando un caso convincente para convertirse en la capa fundamental de la propiedad intelectual en la era Web3. Al combinar tecnología innovadora, un equipo sólido, alianzas estratégicas y una ética centrada en la comunidad, está construyendo una solución práctica a uno de los problemas más urgentes creados por la IA generativa.

La verdadera prueba llegará con el lanzamiento de la mainnet y la adopción en el mundo real. Pero con una visión clara y una ejecución fuerte hasta ahora, Camp Network es, sin duda, un proyecto clave a observar mientras intenta construir un futuro más equitativo para los creadores digitales.```

Conoce BeFreed.ai – Combustible de Aprendizaje para Constructores de BlockEden.xyz

· 4 min de lectura
Dora Noda
Software Engineer

Por Qué BlockEden.xyz Se Preocupa

En el mundo acelerado de Web3, la velocidad lo es todo. Entregar infraestructura de RPC y staking de calidad de producción requiere que nuestro equipo y nuestra comunidad estén constantemente a la vanguardia de la innovación. Eso implica mantenerse al día con protocolos densos, artículos revolucionarios de criptografía y debates de gobernanza que evolucionan rápidamente. Cuanto más rápido nuestra comunidad pueda absorber y comprender nuevas ideas, más rápido podrá construir la próxima generación de aplicaciones descentralizadas. Aquí es donde entra BeFreed.ai.

Qué Es BeFreed.ai

BeFreed.ai es una startup con sede en San Francisco que tiene una misión simple pero poderosa: hacer que el aprendizaje sea alegre y personal en la era de la IA. Han creado un compañero de micro‑aprendizaje inteligente diseñado para adaptarse al estilo de vida exigente de constructores y creadores.

Ingredientes Principales:

  • Múltiples formatos → un clic: BeFreed.ai puede tomar una amplia gama de contenidos — desde libros extensos y videos detallados hasta documentos técnicos complejos — y transformarlos al instante en resúmenes rápidos, tarjetas de estudio, notas en profundidad e incluso audio al estilo podcast.
  • Motor adaptativo: La plataforma está diseñada para aprender contigo. Presta atención a tu ritmo e intereses de aprendizaje, mostrando la información más relevante a continuación, en lugar de obligarte a seguir un currículo rígido y único para todos.
  • Chat integrado y explicaciones “¿Por qué esto?”: ¿Tienes una pregunta? Simplemente pregúntala. BeFreed.ai permite consultas al instante para aclarar temas complejos. También brinda explicaciones que conectan los nuevos conocimientos con tus objetivos generales, haciendo el proceso de aprendizaje más significativo.
  • Una comunidad de aprendizaje de 43 k miembros: El aprendizaje suele ser una actividad colectiva. BeFreed.ai fomenta una comunidad vibrante de más de 43 000 aprendices que comparten su progreso, reaccionan a contenidos perspicaces y resaltan los puntos clave, manteniendo alta la motivación y el impulso.

Por Qué Es Relevante para los Constructores de BlockEden.xyz

Para los constructores dedicados al ecosistema BlockEden.xyz, BeFreed.ai es más que una herramienta de aprendizaje; es una ventaja estratégica. Así puede afinar tu competitividad:

  • Aprovechamiento del tiempo: Convierte un whitepaper de 300 páginas en un breve audio de 10 minutos para escuchar antes de una votación de gobernanza crucial.
  • Retención de contexto: Usa tarjetas de estudio y mapas mentales para consolidar tu comprensión de los detalles del protocolo que necesitarás al escribir índices de smart contracts.
  • Crecimiento multidisciplinario: Amplía tu conjunto de habilidades sin salir de tu entorno de desarrollo. Aprende los fundamentos del design thinking, comprende los bucles de crecimiento o recibe consejos sobre concurrencia en Go durante tus momentos libres.
  • Vocabulario compartido: Crea listas de reproducción a nivel de equipo para asegurar que cada colaborador aprenda a partir de la misma fuente de información destilada y consistente, fomentando una mejor colaboración y alineación.

Usando BeFreed con los Flujos de Trabajo de BlockEden.xyz

Integrar BeFreed.ai en tu proceso de desarrollo existente es fluido y aporta beneficios inmediatos:

  1. Suelta una especificación: Pega la URL del último PDF de tokenomics o de una llamada de desarrolladores en YouTube en BeFreed para obtener un resumen instantáneo y digerible.
  2. Exporta tarjetas de estudio: Revisa conceptos clave durante las ejecuciones de CI. Esta forma de repetición es mucho más eficaz que la fatiga mental que genera el constante cambio de contexto.
  3. Enlaza en la documentación: Inserta una URL de resumen de BeFreed junto a cada referencia de API en tu documentación para ayudar a los nuevos miembros del equipo a ponerse al día más rápido.
  4. Mantente actualizado: Configura digestiones semanales en BeFreed sobre L2 emergentes y pon ese conocimiento en práctica de inmediato prototipando con los servicios RPC multichain de BlockEden.xyz.

Comienza

BeFreed.ai está disponible ahora en iOS, Android y la web. Te invitamos a probarla durante tu próximo sprint de proyecto en BlockEden.xyz y experimentar cómo puede mejorar tu velocidad de aprendizaje y construcción. Nuestro equipo ya está explorando integraciones más estrechas — imagina un futuro donde un webhook convierta automáticamente cada descripción de PR fusionada en un conjunto de estudio integral.

Conectando la IA y la Web3 a través de MCP: Un Análisis Panorámico

· 20 min de lectura
Dora Noda
Software Engineer

Introducción

La IA y la Web3 están convergiendo de maneras poderosas, con las interfaces generales de IA ahora concebidas como un tejido conectivo para la web descentralizada. Un concepto clave que emerge de esta convergencia es MCP, que se refiere a “Model Context Protocol” (Protocolo de Contexto de Modelo, introducido por Anthropic) o se describe vagamente como un Protocolo de Conexión del Metaverso en discusiones más amplias. En esencia, MCP es un marco estandarizado que permite a los sistemas de IA interactuar con herramientas y redes externas de una manera natural y segura, potencialmente “conectando” agentes de IA a cada rincón del ecosistema Web3. Este informe proporciona un análisis exhaustivo de cómo las interfaces generales de IA (como los agentes de modelos de lenguaje grandes y los sistemas neuro-simbólicos) podrían conectar todo en el mundo Web3 a través de MCP, cubriendo los antecedentes históricos, la arquitectura técnica, el panorama de la industria, los riesgos y el potencial futuro.

1. Antecedentes del Desarrollo

1.1 La Evolución de la Web3 y sus Promesas Incumplidas

El término “Web3” fue acuñado alrededor de 2014 para describir una web descentralizada impulsada por blockchain. La visión era ambiciosa: una internet sin permisos centrada en la propiedad del usuario. Los entusiastas imaginaron reemplazar la infraestructura centralizada de la Web2 con alternativas basadas en blockchain, como Ethereum Name Service (para DNS), Filecoin o IPFS (para almacenamiento) y DeFi para los rieles financieros. En teoría, esto arrebataría el control a las grandes plataformas tecnológicas y otorgaría a los individuos autosoberanía sobre sus datos, identidad y activos.

La realidad se quedó corta. A pesar de años de desarrollo y expectación, el impacto general de la Web3 siguió siendo marginal. Los usuarios promedio de internet no acudieron en masa a las redes sociales descentralizadas ni comenzaron a gestionar claves privadas. Las razones clave incluyeron una mala experiencia de usuario, transacciones lentas y costosas, estafas de alto perfil e incertidumbre regulatoria. La “web de propiedad” descentralizada en gran medida “no logró materializarse” más allá de una comunidad de nicho. A mediados de la década de 2020, incluso los defensores de las criptomonedas admitieron que la Web3 no había supuesto un cambio de paradigma para el usuario promedio.

Mientras tanto, la IA estaba experimentando una revolución. A medida que el capital y el talento de los desarrolladores se desplazaban de las criptomonedas a la IA, los avances transformadores en el aprendizaje profundo y los modelos fundacionales (GPT-3, GPT-4, etc.) capturaron la imaginación del público. La IA generativa demostró una utilidad clara —produciendo contenido, código y decisiones— de una manera que las aplicaciones cripto habían tenido dificultades para lograr. De hecho, el impacto de los modelos de lenguaje grandes en solo un par de años superó con creces una década de adopción de usuarios de blockchain. Este contraste llevó a algunos a bromear diciendo que “la Web3 se desperdició en las criptomonedas” y que la verdadera Web 3.0 está emergiendo de la ola de la IA.

1.2 El Auge de las Interfaces Generales de IA

A lo largo de décadas, las interfaces de usuario evolucionaron desde páginas web estáticas (Web1.0) hasta aplicaciones interactivas (Web2.0), pero siempre dentro de los confines de hacer clic en botones y rellenar formularios. Con la IA moderna, especialmente los modelos de lenguaje grandes (LLM), ha llegado un nuevo paradigma de interfaz: el lenguaje natural. Los usuarios pueden simplemente expresar su intención en lenguaje sencillo y hacer que los sistemas de IA ejecuten acciones complejas en muchos dominios. Este cambio es tan profundo que algunos sugieren redefinir “Web 3.0” como la era de los agentes impulsados por IA (“la Web Agéntica”) en lugar de la definición anterior centrada en blockchain.

Sin embargo, los primeros experimentos con agentes de IA autónomos expusieron un cuello de botella crítico. Estos agentes —por ejemplo, prototipos como AutoGPT— podían generar texto o código, pero carecían de una forma robusta de comunicarse con sistemas externos y entre sí. No había “un lenguaje común nativo de IA” para la interoperabilidad. Cada integración con una herramienta o fuente de datos era un apaño a medida, y la interacción de IA a IA no tenía un protocolo estándar. En términos prácticos, un agente de IA podría tener una gran capacidad de razonamiento pero fallar en la ejecución de tareas que requerían el uso de aplicaciones web o servicios on-chain, simplemente porque no sabía cómo hablar con esos sistemas. Este desajuste —cerebros potentes, E/S primitiva— era similar a tener un software súper inteligente atrapado detrás de una torpe GUI.

1.3 Convergencia y el Surgimiento de MCP

Para 2024, se hizo evidente que para que la IA alcanzara su máximo potencial (y para que la Web3 cumpliera su promesa), se necesitaba una convergencia: los agentes de IA requieren un acceso fluido a las capacidades de la Web3 (aplicaciones descentralizadas, contratos, datos), y la Web3 necesita más inteligencia y usabilidad, que la IA puede proporcionar. Este es el contexto en el que nació MCP (Model Context Protocol). Introducido por Anthropic a finales de 2024, MCP es un estándar abierto para la comunicación entre IA y herramientas que resulta natural para los LLM. Proporciona una forma estructurada y reconocible para que los “hosts” de IA (como ChatGPT, Claude, etc.) encuentren y utilicen una variedad de herramientas y recursos externos a través de servidores MCP. En otras palabras, MCP es una capa de interfaz común que permite a los agentes de IA conectarse a servicios web, APIs e incluso funciones de blockchain, sin codificar a medida cada integración.

Piense en MCP como “el USB-C de las interfaces de IA”. Así como el USB-C estandarizó cómo se conectan los dispositivos (para que no necesite cables diferentes para cada dispositivo), MCP estandariza cómo los agentes de IA se conectan a herramientas y datos. En lugar de codificar diferentes llamadas a API para cada servicio (Slack vs. Gmail vs. nodo de Ethereum), un desarrollador puede implementar la especificación MCP una vez, y cualquier IA compatible con MCP puede entender cómo usar ese servicio. Los principales actores de la IA vieron rápidamente la importancia: Anthropic hizo de código abierto a MCP, y empresas como OpenAI y Google están desarrollando soporte para él en sus modelos. Este impulso sugiere que MCP (o “Protocolos de Meta Conectividad” similares) podría convertirse en la columna vertebral que finalmente conecte la IA y la Web3 de una manera escalable.

Cabe destacar que algunos tecnólogos argumentan que esta conectividad centrada en la IA es la verdadera realización de la Web3.0. En palabras de Simba Khadder, “MCP tiene como objetivo estandarizar una API entre los LLM y las aplicaciones”, de manera similar a cómo las APIs REST permitieron la Web 2.0, lo que significa que la próxima era de la Web3 podría definirse por interfaces de agentes inteligentes en lugar de solo por blockchains. En lugar de la descentralización por sí misma, la convergencia con la IA podría hacer que la descentralización sea útil, al ocultar la complejidad detrás del lenguaje natural y los agentes autónomos. El resto de este informe profundiza en cómo, técnica y prácticamente, las interfaces generales de IA (a través de protocolos como MCP) pueden conectar todo en el mundo Web3.

2. Arquitectura Técnica: Interfaces de IA Uniendo Tecnologías Web3

Incrustar agentes de IA en la pila de Web3 requiere integración en múltiples niveles: redes de blockchain y contratos inteligentes, almacenamiento descentralizado, sistemas de identidad y economías basadas en tokens. Las interfaces generales de IA —desde grandes modelos fundacionales hasta sistemas híbridos neuro-simbólicos— pueden servir como un “adaptador universal” que conecta estos componentes. A continuación, analizamos la arquitectura de dicha integración:

Figura: Un diagrama conceptual de la arquitectura de MCP, que muestra cómo los hosts de IA (aplicaciones basadas en LLM como Claude o ChatGPT) utilizan un cliente MCP para conectarse a varios servidores MCP. Cada servidor proporciona un puente a alguna herramienta o servicio externo (por ejemplo, Slack, Gmail, calendarios o datos locales), análogo a los periféricos que se conectan a través de un concentrador universal. Esta interfaz MCP estandarizada permite a los agentes de IA acceder a servicios remotos y recursos on-chain a través de un protocolo común.

2.1 Agentes de IA como Clientes Web3 (Integración con Blockchains)

En el núcleo de la Web3 se encuentran las blockchains y los contratos inteligentes, máquinas de estado descentralizadas que pueden hacer cumplir la lógica sin necesidad de confianza. ¿Cómo puede una interfaz de IA interactuar con estos? Hay dos direcciones a considerar:

  • IA leyendo de la blockchain: Un agente de IA puede necesitar datos on-chain (por ejemplo, precios de tokens, saldo de activos de un usuario, propuestas de DAO) como contexto para sus decisiones. Tradicionalmente, recuperar datos de la blockchain requiere interactuar con APIs RPC de nodos o bases de datos de subgrafos. Con un marco como MCP, una IA puede consultar un servidor MCP estandarizado de “datos de blockchain” para obtener información on-chain en tiempo real. Por ejemplo, un agente habilitado para MCP podría solicitar el último volumen de transacciones de un determinado token, o el estado de un contrato inteligente, y el servidor MCP se encargaría de los detalles de bajo nivel para conectarse a la blockchain y devolver los datos en un formato que la IA pueda usar. Esto aumenta la interoperabilidad al desacoplar la IA del formato de API de cualquier blockchain específica.

  • IA escribiendo en la blockchain: De manera más potente, los agentes de IA pueden ejecutar llamadas a contratos inteligentes o transacciones a través de integraciones Web3. Una IA podría, por ejemplo, ejecutar autónomamente una operación en un exchange descentralizado o ajustar parámetros en un contrato inteligente si se cumplen ciertas condiciones. Esto se logra mediante la invocación por parte de la IA de un servidor MCP que encapsula la funcionalidad de transacción de la blockchain. Un ejemplo concreto es el servidor MCP de thirdweb para cadenas EVM, que permite a cualquier cliente de IA compatible con MCP interactuar con Ethereum, Polygon, BSC, etc., abstrayendo la mecánica específica de la cadena. Usando una herramienta así, un agente de IA podría desencadenar acciones on-chain “sin intervención humana”, permitiendo dApps autónomas; por ejemplo, una bóveda DeFi impulsada por IA que se reequilibra a sí misma firmando transacciones cuando cambian las condiciones del mercado.

Bajo el capó, estas interacciones todavía dependen de wallets, claves y tarifas de gas, pero a la interfaz de IA se le puede dar acceso controlado a un wallet (con sandboxes de seguridad adecuados) para realizar las transacciones. Los oráculos y los puentes entre cadenas también entran en juego: redes de oráculos como Chainlink sirven como un puente entre la IA y las blockchains, permitiendo que los resultados de la IA sean introducidos on-chain de manera confiable. El Protocolo de Interoperabilidad entre Cadenas (CCIP) de Chainlink, por ejemplo, podría permitir que un modelo de IA considerado confiable desencadene múltiples contratos en diferentes cadenas simultáneamente en nombre de un usuario. En resumen, las interfaces generales de IA pueden actuar como un nuevo tipo de cliente Web3, uno que puede tanto consumir datos de la blockchain como producir transacciones de la blockchain a través de protocolos estandarizados.

2.2 Sinergia Neuro-Simbólica: Combinando el Razonamiento de la IA con los Contratos Inteligentes

Un aspecto intrigante de la integración IA-Web3 es el potencial de las arquitecturas neuro-simbólicas que combinan la capacidad de aprendizaje de la IA (redes neuronales) con la lógica rigurosa de los contratos inteligentes (reglas simbólicas). En la práctica, esto podría significar que los agentes de IA manejen la toma de decisiones no estructurada y pasen ciertas tareas a los contratos inteligentes para una ejecución verificable. Por ejemplo, una IA podría analizar el sentimiento del mercado (una tarea difusa), pero luego ejecutar operaciones a través de un contrato inteligente determinista que sigue reglas de riesgo preestablecidas. El marco MCP y los estándares relacionados hacen factibles tales transferencias al darle a la IA una interfaz común para llamar a funciones de contrato o para consultar las reglas de una DAO antes de actuar.

Un ejemplo concreto es el AI-DSL (Lenguaje Específico de Dominio de IA) de SingularityNET, que tiene como objetivo estandarizar la comunicación entre agentes de IA en su red descentralizada. Esto puede verse como un paso hacia la integración neuro-simbólica: un lenguaje formal (simbólico) para que los agentes soliciten servicios de IA o datos entre sí. De manera similar, proyectos como AlphaCode de DeepMind u otros podrían eventualmente conectarse para que los contratos inteligentes llamen a modelos de IA para la resolución de problemas on-chain. Aunque ejecutar grandes modelos de IA directamente on-chain es impráctico hoy en día, están surgiendo enfoques híbridos: por ejemplo, ciertas blockchains permiten la verificación de cálculos de ML a través de pruebas de conocimiento cero o ejecución confiable, lo que permite la verificación on-chain de resultados de IA off-chain. En resumen, la arquitectura técnica concibe los sistemas de IA y los contratos inteligentes de blockchain como componentes complementarios, orquestados a través de protocolos comunes: la IA se encarga de la percepción y las tareas abiertas, mientras que las blockchains proporcionan integridad, memoria y el cumplimiento de las reglas acordadas.

2.3 Almacenamiento Descentralizado y Datos para la IA

La IA prospera con los datos, y la Web3 ofrece nuevos paradigmas para el almacenamiento y el intercambio de datos. Las redes de almacenamiento descentralizado (como IPFS/Filecoin, Arweave, Storj, etc.) pueden servir tanto como repositorios para artefactos de modelos de IA como fuentes de datos de entrenamiento, con control de acceso basado en blockchain. Una interfaz general de IA, a través de MCP o similar, podría obtener archivos o conocimiento del almacenamiento descentralizado con la misma facilidad que desde una API de Web2. Por ejemplo, un agente de IA podría extraer un conjunto de datos del mercado de Ocean Protocol o un archivo cifrado de un almacenamiento distribuido, si tiene las claves o los pagos adecuados.

Ocean Protocol en particular se ha posicionado como una plataforma de “economía de datos de IA”, utilizando blockchain para tokenizar datos e incluso servicios de IA. En Ocean, los conjuntos de datos están representados por datatokens que controlan el acceso; un agente de IA podría obtener un datatoken (quizás pagando con criptomonedas o a través de algún derecho de acceso) y luego usar un servidor MCP de Ocean para recuperar los datos reales para su análisis. El objetivo de Ocean es desbloquear “datos inactivos” para la IA, incentivando el intercambio mientras se preserva la privacidad. Por lo tanto, una IA conectada a la Web3 podría acceder a un vasto corpus descentralizado de información —desde bóvedas de datos personales hasta datos gubernamentales abiertos— que antes estaba aislado. La blockchain asegura que el uso de los datos sea transparente y pueda ser recompensado de manera justa, alimentando un ciclo virtuoso donde más datos están disponibles para la IA y más contribuciones de IA (como modelos entrenados) pueden ser monetizadas.

Los sistemas de identidad descentralizada también juegan un papel aquí (discutido más en la siguiente subsección): pueden ayudar a controlar quién o qué tiene permitido acceder a ciertos datos. Por ejemplo, a un agente de IA médico se le podría exigir que presente una credencial verificable (prueba on-chain de cumplimiento con HIPAA o similar) antes de que se le permita descifrar un conjunto de datos médicos del almacenamiento IPFS personal de un paciente. De esta manera, la arquitectura técnica asegura que los datos fluyan hacia la IA cuando sea apropiado, pero con gobernanza y registros de auditoría on-chain para hacer cumplir los permisos.

2.4 Identidad y Gestión de Agentes en un Entorno Descentralizado

Cuando los agentes de IA autónomos operan en un ecosistema abierto como la Web3, la identidad y la confianza se vuelven primordiales. Los marcos de identidad descentralizada (DID) proporcionan una forma de establecer identidades digitales para agentes de IA que pueden ser verificadas criptográficamente. Cada agente (o el humano/organización que lo despliega) puede tener un DID y credenciales verificables asociadas que especifican sus atributos y permisos. Por ejemplo, un bot de trading de IA podría llevar una credencial emitida por un sandbox regulatorio que certifique que puede operar dentro de ciertos límites de riesgo, o un moderador de contenido de IA podría demostrar que fue creado por una organización de confianza y ha sido sometido a pruebas de sesgo.

A través de registros de identidad y sistemas de reputación on-chain, el mundo Web3 puede hacer cumplir la responsabilidad por las acciones de la IA. Cada transacción que realiza un agente de IA puede ser rastreada hasta su ID, y si algo sale mal, las credenciales te dicen quién lo construyó o quién es responsable. Esto aborda un desafío crítico: sin identidad, un actor malicioso podría crear agentes de IA falsos para explotar sistemas o difundir desinformación, y nadie podría distinguir los bots de los servicios legítimos. La identidad descentralizada ayuda a mitigar eso al permitir una autenticación robusta y distinguir los agentes de IA auténticos de las falsificaciones.

En la práctica, una interfaz de IA integrada con la Web3 usaría protocolos de identidad para firmar sus acciones y solicitudes. Por ejemplo, cuando un agente de IA llama a un servidor MCP para usar una herramienta, podría incluir un token o firma vinculada a su identidad descentralizada, para que el servidor pueda verificar que la llamada proviene de un agente autorizado. Los sistemas de identidad basados en blockchain (como el ERC-725 de Ethereum o los DID de W3C anclados en un ledger) aseguran que esta verificación sea sin confianza y verificable globalmente. El concepto emergente de “wallets de IA” se relaciona con esto: esencialmente, dar a los agentes de IA wallets de criptomonedas que están vinculados con su identidad, para que puedan gestionar claves, pagar por servicios o hacer staking de tokens como una fianza (que podría ser recortada por mal comportamiento). ArcBlock, por ejemplo, ha discutido cómo “los agentes de IA necesitan un wallet” y un DID para operar de manera responsable en entornos descentralizados.

En resumen, la arquitectura técnica prevé a los agentes de IA como ciudadanos de primera clase en la Web3, cada uno con una identidad on-chain y posiblemente una participación en el sistema, utilizando protocolos como MCP para interactuar. Esto crea una red de confianza: los contratos inteligentes pueden requerir las credenciales de una IA antes de cooperar, y los usuarios pueden optar por delegar tareas solo a aquellas IA que cumplan con ciertas certificaciones on-chain. Es una mezcla de la capacidad de la IA con las garantías de confianza de la blockchain.

2.5 Economías de Tokens e Incentivos para la IA

La tokenización es un sello distintivo de la Web3, y se extiende también al dominio de la integración de la IA. Al introducir incentivos económicos a través de tokens, las redes pueden fomentar comportamientos deseados tanto de los desarrolladores de IA como de los propios agentes. Están surgiendo varios patrones:

  • Pago por Servicios: Los modelos y servicios de IA pueden ser monetizados on-chain. SingularityNET fue pionero en esto al permitir a los desarrolladores desplegar servicios de IA y cobrar a los usuarios en un token nativo (AGIX) por cada llamada. En un futuro habilitado para MCP, uno podría imaginar cualquier herramienta o modelo de IA como un servicio plug-and-play donde el uso se mide a través de tokens o micropagos. Por ejemplo, si un agente de IA utiliza una API de visión de terceros a través de MCP, podría manejar automáticamente el pago transfiriendo tokens al contrato inteligente del proveedor de servicios. Fetch.ai de manera similar visualiza mercados donde “agentes económicos autónomos” intercambian servicios y datos, con su nuevo LLM de Web3 (ASI-1) presumiblemente integrando transacciones cripto para el intercambio de valor.

  • Staking y Reputación: Para asegurar la calidad y la fiabilidad, algunos proyectos requieren que los desarrolladores o agentes hagan staking de tokens. Por ejemplo, el proyecto DeMCP (un mercado descentralizado de servidores MCP) planea usar incentivos de tokens para recompensar a los desarrolladores por crear servidores MCP útiles, y posiblemente hacer que hagan staking de tokens como señal de compromiso con la seguridad de su servidor. La reputación también podría estar vinculada a los tokens; por ejemplo, un agente que se desempeña consistentemente bien podría acumular tokens de reputación o reseñas positivas on-chain, mientras que uno que se comporta mal podría perder su stake o ganar marcas negativas. Esta reputación tokenizada puede luego retroalimentar el sistema de identidad mencionado anteriormente (los contratos inteligentes o los usuarios verifican la reputación on-chain del agente antes de confiar en él).

  • Tokens de Gobernanza: Cuando los servicios de IA se convierten en parte de plataformas descentralizadas, los tokens de gobernanza permiten a la comunidad dirigir su evolución. Proyectos como SingularityNET y Ocean tienen DAOs donde los poseedores de tokens votan sobre cambios en el protocolo o la financiación de iniciativas de IA. En la Alianza de Superinteligencia Artificial (ASI) combinada —una fusión recientemente anunciada de SingularityNET, Fetch.ai y Ocean Protocol— un token unificado (ASI) está destinado a gobernar la dirección de un ecosistema conjunto de IA+blockchain. Dichos tokens de gobernanza podrían decidir políticas como qué estándares adoptar (por ejemplo, soportar MCP o protocolos A2A), qué proyectos de IA incubar o cómo manejar las directrices éticas para los agentes de IA.

  • Acceso y Utilidad: Los tokens pueden controlar el acceso no solo a los datos (como con los datatokens de Ocean) sino también al uso de modelos de IA. Un escenario posible son los “NFTs de modelos” o similares, donde poseer un token te otorga derechos sobre los resultados de un modelo de IA o una participación en sus ganancias. Esto podría sustentar los mercados de IA descentralizados: imagina un NFT que representa la propiedad parcial de un modelo de alto rendimiento; los propietarios ganan colectivamente cada vez que el modelo se utiliza en tareas de inferencia, y pueden votar sobre su ajuste fino. Aunque experimental, esto se alinea con el ethos de la Web3 de propiedad compartida aplicada a los activos de IA.

En términos técnicos, integrar tokens significa que los agentes de IA necesitan funcionalidad de wallet (como se señaló, muchos tendrán sus propios wallets de criptomonedas). A través de MCP, una IA podría tener una “herramienta de wallet” que le permita verificar saldos, enviar tokens o llamar a protocolos DeFi (quizás para intercambiar un token por otro para pagar un servicio). Por ejemplo, si un agente de IA que se ejecuta en Ethereum necesita algunos tokens de Ocean para comprar un conjunto de datos, podría intercambiar automáticamente algunos ETH por $OCEAN a través de un DEX usando un plugin de MCP, y luego proceder con la compra, todo sin intervención humana, guiado por las políticas establecidas por su propietario.

En general, la economía de tokens proporciona la capa de incentivos en la arquitectura IA-Web3, asegurando que los contribuyentes (ya sea que proporcionen datos, código de modelo, poder de cómputo o auditorías de seguridad) sean recompensados, y que los agentes de IA tengan “algo en juego” que los alinee (hasta cierto punto) con las