Saltar al contenido principal

El Momento DeepSeek de 72 Mil Millones de Bittensor: Cuando la IA Descentralizada Finalmente Demostró que los Escépticos Estaban Equivocados

· 10 min de lectura
Dora Noda
Software Engineer

El 20 de enero de 2026, DeepSeek lanzó silenciosamente un modelo que sacudió toda la industria de la IA: un sistema de razonamiento de código abierto que igualaba lo mejor de OpenAI a aproximadamente 1/50 del costo de entrenamiento. Nvidia perdió 600 mil millones de dólares en capitalización de mercado en un solo día. La lección subyacente no era solo sobre el progreso de la IA en China; era que la suposición de que "solo los grandes laboratorios centralizados pueden construir IA de frontera" se había agrietado.

Seis semanas después, el 10 de marzo de 2026, una red de 70 colaboradores independientes —usando GPUs comunes y conexiones regulares de internet doméstico— completó el entrenamiento de un modelo de lenguaje de 72 mil millones de parámetros sin un solo centro de datos. La subred Templar de Bittensor tuvo su propio momento DeepSeek, y las implicaciones para la IA descentralizada son igualmente profundas.

Lo que Acaba de Ocurrir en el Ecosistema de Bittensor

Covenant-72B no es simplemente un hito técnico. Es una prueba de concepto de que el entrenamiento descentralizado de IA a escala de frontera es ahora económica y técnicamente viable.

El modelo fue entrenado por la Subred 3 de Bittensor, conocida como Templar, utilizando un algoritmo revolucionario llamado SparseLoCo. Desarrollado en colaboración con Covenant AI y el Mila Lab, SparseLoCo combina rarificación, cuantización de 2 bits y retroalimentación de errores para comprimir la comunicación de gradientes entre nodos en más de 146 veces. Esta única innovación resolvió lo que había sido el cuello de botella fundamental del entrenamiento descentralizado: el enorme ancho de banda requerido para sincronizar actualizaciones de modelo a través de miles de nodos independientes.

Los resultados hablan por sí mismos. Covenant-72B obtuvo 67,1 en el benchmark MMLU, colocándolo en el mismo rango de rendimiento que el Llama 2 70B de Meta, un modelo construido por uno de los laboratorios de IA mejor financiados del planeta, utilizando cientos de millones de dólares en infraestructura centralizada. La versión de Bittensor fue entrenada por más de 70 colaboradores usando internet doméstico.

Jensen Huang, CEO de Nvidia, lo llamó "una versión moderna de folding@home" en el podcast All-In.

Por Qué Esto Es el "Momento DeepSeek" de la IA Descentralizada

El paralelo con DeepSeek va más allá del simple "IA barata". En ambos casos, la historia trata sobre la economía de la eficiencia rompiendo un supuesto piso de costos previamente asumido.

La perspectiva de DeepSeek fue algorítmica: al combinar arquitecturas de mezcla de expertos con optimización agresiva de inferencia, demostraron que no necesitas 100,000 H100 para igualar el rendimiento de frontera. La perspectiva de Bittensor es infraestructural: al comprimir la comunicación de gradientes en un 97% sin pérdida de precisión, demostraron que el entrenamiento coordinado no requiere el ancho de banda de un único centro de datos.

Ambos avances atacan el mismo supuesto: que la IA de frontera requiere una masiva concentración de capital centralizada.

La diferencia está en lo que ocurre a continuación. Los beneficios de eficiencia de DeepSeek fluyen hacia quien ejecute el modelo. Los beneficios de eficiencia de Bittensor fluyen hacia la red: hacia los más de 70 operadores de nodos que entrenaron colectivamente Covenant-72B y hacia los poseedores de TAO que son dueños del protocolo que ejecutan.

Esta es la innovación económica central del modelo de subred de Bittensor: convertir la calidad del modelo de IA en un incentivo financiero distribuido, no solo en una métrica de producto.

La Economía: La Reducción a la Mitad se Encuentra con el Avance

El momento importa. La primera reducción a la mitad de TAO de Bittensor ocurrió el 14 de diciembre de 2025, cortando las emisiones diarias de tokens de 7,200 a 3,600 TAO. Esto no fue solo un evento de oferta; cambió fundamentalmente la economía de la operación de subredes.

Antes de la reducción a la mitad, las subredes podían atraer mineros ofreciendo emisiones generosas incluso por resultados mediocres. La reducción a la mitad forzó una selección darwiniana: con menos tokens para distribuir, los validadores se volvieron mucho más exigentes, y las subredes que no podían demostrar métricas de rendimiento reales vieron la atención de los mineros (y la tasa de hash) migrar hacia mejores oportunidades.

Templar/SN3 prosperó en este entorno precisamente porque construyó mecanismos rigurosos anti-trampa —protocolos de "commit-reveal" para la presentación de gradientes y marcas de tiempo precisas mediante almacenamiento en bucket R2— que aseguraban la calidad de cada actualización de gradiente presentada por los mineros. Cuando la reducción a la mitad comprimió las emisiones, las subredes de alta calidad obtuvieron relativamente más; las de baja calidad fueron exprimidas.

El lanzamiento de Covenant-72B en marzo de 2026 validó este modelo. TAO se disparó aproximadamente un 90%, subiendo de 180 dólares a más de 332 dólares a medida que se difundió la noticia de que la mayor ejecución de preentrenamiento de LLM descentralizado de la historia había producido un modelo genuinamente competitivo. La valoración de la subred de Templar cruzó los 550 millones de dólares. Grayscale aumentó la ponderación de TAO en su fondo de IA al 43,06% y aceleró su impulso para convertir su Bittensor Trust en un ETF al contado.

Las señales institucionales se alinearon: Polychain Capital comprometió 200 millones de dólares al ecosistema, y las principales entidades habían apostado casi el 19% del suministro total de TAO (691 millones de dólares), creando dinámicas de escasez genuinas.

La Arquitectura de Red Detrás del Hito

Para entender por qué Covenant-72B importa, necesitas entender la arquitectura de subredes de Bittensor.

Bittensor opera como una blockchain de Capa 1 (construida sobre Polkadot Substrate) donde la inteligencia es la mercancía que se produce y se valora. La red ejecuta 128 subredes activas, mercados especializados, cada uno enfocado en una tarea de IA diferente. La Subred 64 (Chutes) maneja la inferencia de modelos descentralizados. La Subred 3 (Templar) se centra en el entrenamiento colaborativo de modelos. Otras subredes abordan texto a imagen, simulación de plegamiento de proteínas, almacenamiento y predicción financiera.

Cada subred ejecuta su propio mecanismo de incentivos. Los mineros realizan el trabajo (ejecutan modelos, producen resultados, presentan gradientes). Los validadores puntúan ese trabajo según métricas objetivas. Yuma Consensus —el algoritmo central de Bittensor— convierte esas puntuaciones en emisiones de TAO. Cuanto mejor sea tu trabajo, más TAO ganas.

Lo que hace que la ejecución de entrenamiento de 72B sea significativa es que requirió sincronizar actualizaciones de gradientes a través de más de 70 nodos independientes, cada uno corriendo en hardware común, conectado por internet público. Los sistemas de entrenamiento distribuido anteriores asumían que podías enrutar petabytes de datos de gradientes a través de interconexiones privadas de centros de datos. SparseLoCo demostró que puedes lograr el mismo resultado con 146 veces menos datos.

La red ahora planea duplicar la capacidad de subredes de 128 a 256 para finales de 2026, incorporando nuevas mejoras de consenso (a veces referenciadas como versión 1.4) que dan a los validadores mejores herramientas para verificar el trabajo de los mineros utilizando métricas como GraVal, haciendo la evaluación de calidad más objetiva y difícil de manipular.

Los Desafíos que No Pueden Ignorarse

Ninguna evaluación honesta del momento de Bittensor puede saltarse las preguntas difíciles.

La brecha de subsidio a ingreso es real. La firma de investigación Pine Analytics encontró que la subred más grande de Bittensor, Chutes (SN64), recibe aproximadamente 52 millones de dólares anuales en emisiones de TAO pero genera solo 1,3 a 2,4 millones de dólares en ingresos externos reales, una relación subsidio-ingreso de 22:1 a 40:1. Sin que las emisiones de TAO sostengan los precios, la inferencia de Chutes costaría 1,6 a 3,5 veces más que alternativas centralizadas como DeepSeek y Together AI. La red actualmente funciona con inflación de tokens, no con ajuste producto-mercado.

Los conflictos de gobernanza se están escalando. En un desarrollo impactante el 10 de abril de 2026 —la misma semana que TAO cruzó los 340 dólares— Covenant AI salió públicamente de la red de Bittensor. La empresa acusó al cofundador Jacob Steeves de ejercer control centralizado sobre las operaciones de subredes y participar en lo que llamó "teatro de descentralización". El anuncio desencadenó una corrección de precio de más del 20% y más de 10 millones de dólares en liquidaciones largas, un recordatorio de que el riesgo de gobernanza sigue siendo la mayor pregunta sin resolver para cualquier proyecto de infraestructura descentralizada.

La comparación con Llama 2, no con Llama 4. Que Covenant-72B iguale al modelo de Meta de 2023 es impresionante para un sistema descentralizado. Es una pregunta diferente si el entrenamiento descentralizado puede mantenerse al ritmo de los modelos entrenados en 100,000 clústeres H100 en la frontera actual. La ventaja de eficiencia de SparseLoCo necesita acumularse rápidamente para seguir siendo relevante.

Lo que Esto Significa para la IA Descentralizada en 2026

La objeción "la IA descentralizada siempre será más cara que la centralizada" ha sido una de las mayores barreras para la adopción institucional de redes como Bittensor. Covenant-72B ataca directamente esa objeción en la capa de entrenamiento.

El modelo económico que emerge si Bittensor funciona a escala es genuinamente novedoso: modelos de IA entrenados y servidos por miles de operadores independientes, coordinados por incentivos de tokens, sin que ninguna entidad controle el stack. La subred Talisman AI ya servía a más de 100,000 clientes de pago y generaba 43 millones de dólares en ingresos de clientes de IA en el primer trimestre de 2026, prueba de que al menos algunas subredes están cruzando de subsidiadas por tokens a financiadas externamente.

Para el ecosistema Web3 más amplio, el momento de Bittensor representa algo importante: la tesis de que los blockchains pueden coordinar trabajo computacional complejo —no solo transacciones financieras— está pasando del papel blanco a la producción.

Las variables clave a observar en los próximos 12 meses:

  • Si el filing de ETF al contado de Grayscale se convierte en un producto aprobado
  • Si las relaciones de ingreso a emisiones de subredes mejoran materialmente a medida que crece la demanda externa
  • Si la disputa de gobernanza con Covenant AI se resuelve o acelera un fork de la red
  • Si la ventaja de compresión de SparseLoCo puede mantenerse a medida que los laboratorios centralizados también adoptan algoritmos de entrenamiento más eficientes

El paralelo con DeepSeek se sostiene de una manera crucial: el avance de eficiencia crea presión irreversible. Una vez que has demostrado que puedes entrenar un modelo a escala de frontera sin un centro de datos, la pregunta deja de ser "¿puede funcionar la IA descentralizada?" y se convierte en "¿cuál es el techo?"


BlockEden.xyz proporciona infraestructura RPC y API de grado empresarial para Sui, Aptos, Ethereum y más de 20 otras blockchains. Si estás construyendo DApps impulsadas por IA o necesitas datos en cadena confiables para flujos de trabajo de agentes de IA, explora nuestro mercado de API para conectar tus modelos a la infraestructura blockchain de producción.