1/ El entrenamiento de IA descentralizada está pasando de ser imposible a inevitable. La era de los monopolios de IA centralizados está siendo desafiada por protocolos innovadores que permiten el entrenamiento colaborativo de modelos a través de redes distribuidas.
2/ Alerta de lanzamiento: Qwen 3 Coder acaba de salir y es un cambio de juego. El nuevo modelo MoE de 480B parámetros con 35B parámetros activos logra un rendimiento de vanguardia en tareas de codificación agentiva, rivalizando con Claude Sonnet 4. Este codificador completamente de código abierto admite 256K de contexto de forma nativa y 1M con extrapolación.
3/ Pluralis está liderando "Protocol Learning", un enfoque radical donde los modelos se entrenan de manera colaborativa pero nunca se materializan completamente en ningún lugar. Una ronda de financiación inicial de $7.6M de USV y CoinFund respalda su visión de una IA verdaderamente abierta donde los contribuyentes comparten el beneficio económico sin renunciar al control del modelo.
@PluralisHQ 4/ Nous Research recaudó 50 millones de dólares para desafiar a OpenAI con modelos gobernados por la comunidad. Su próximo modelo "Consilience" de 40 mil millones de parámetros utiliza el marco Psyche con compresión inspirada en JPEG para permitir un entrenamiento distribuido eficiente en hardware heterogéneo.
5/ Gensyn ha asegurado ~$51M hasta la fecha para construir el "cluster global de aprendizaje automático." Su protocolo conecta computación subutilizada en todo el mundo, desde centros de datos hasta laptops para juegos, creando una alternativa de nube descentralizada que podría lograr economías unitarias que superen a los proveedores centralizados.
@gensynai 6/ Prime Intellect demostró que el entrenamiento descentralizado funciona con INTELLECT-2. Su modelo de 32B parámetros fue entrenado a través de RL distribuido globalmente utilizando el marco PRIME-RL, demostrando que se pueden construir modelos de vanguardia a través de continentes sin sacrificar el rendimiento.
@PrimeIntellect 7/ Las subredes de Bittensor se especializan en cargas de trabajo de IA: - La subred 3 (Templar) se centra en la validación del entrenamiento distribuido. - La subred 9 (Macrocosmos) permite el desarrollo colaborativo de modelos, creando incentivos económicos para los participantes en la red neuronal.
8/ La tesis del entrenamiento descentralizado: Agregar más capacidad de cómputo que cualquier entidad única, democratizar el acceso al desarrollo de IA y prevenir la concentración de poder. A medida que los modelos de razonamiento aumentan los costos de inferencia más que el entrenamiento, las redes distribuidas pueden convertirse en una infraestructura esencial en la economía de la IA.
8,25K