¿Qué pasaría si el próximo modelo de IA de frontera no se entrenara en un centro de datos de mil millones de dólares propiedad de una sola corporación, sino por docenas de colaboradores anónimos repartidos por todo el mundo, coordinados por una blockchain y comunicándose a través de conexiones a internet ordinarias?

Eso es exactamente lo que acaba de suceder. Covenant-72B de Templar, un modelo de lenguaje de gran tamaño de 72,7 mil millones de parámetros preentrenado íntegramente en la Subred 3 de Bittensor, se ha convertido en el modelo de IA entrenado de forma colaborativa más grande en la historia de las criptomonedas, y uno de los primeros en lograr un rendimiento competitivo con las bases de referencia centralizadas al tiempo que permite una participación totalmente sin permisos. Sin listas blancas. Sin guardianes corporativos. Solo GPUs, gradientes comprimidos y un mecanismo de incentivos mediante tokens que mantuvo la honestidad de todos.
El cofundador de Anthropic, Jack Clark, destacó el logro en su influyente boletín Import AI, señalando que el cómputo de entrenamiento descentralizado está creciendo a un ritmo del 20x anual — cuatro veces más rápido que la tasa de crecimiento anual del 5x del entrenamiento centralizado de frontera.
He aquí por qué esto es importante mucho más allá del ecosistema de Bittensor.