1/ Decentraliserad AI-träning går från omöjligt till oundvikligt. Eran av centraliserade AI-monopol utmanas av banbrytande protokoll som möjliggör träning av samarbetsmodeller över distribuerade nätverk.
2/ Primer Alert: Qwen 3 Coder har precis släppts och det är en game changer. Den nya MoE-modellen med 480B-parametrar och 35B aktiva parametrar uppnår toppmodern prestanda i agentkodningsuppgifter, och konkurrerar med Claude Sonnet 4. Den här kodaren med helt öppen källkod har stöd för 256 kB kontext inbyggt och 1 M med extrapolering.
3/ Pluralis är banbrytande inom "Protocol Learning", ett radikalt tillvägagångssätt där modeller tränas i samarbete men aldrig materialiseras fullt ut på någon enskild plats. 7,6 miljoner dollar i en såddrunda från USV och CoinFund stöder deras vision om verkligt öppen AI där bidragsgivarna delar ekonomisk uppsida utan att ge upp modellkontrollen.
@PluralisHQ 4/ Nous Research samlade in 50 miljoner dollar för att utmana OpenAI med community-styrda modeller. Deras kommande 40B-parameter "Consilience"-modell använder Psyche-ramverket med JPEG-inspirerad komprimering för att möjliggöra effektiv distribuerad träning över heterogen hårdvara.
5/ Gensyn har hittills säkrat ~51 miljoner dollar för att bygga det "globala maskininlärningsklustret". Deras protokoll kopplar samman underutnyttjad databehandling över hela världen, från datacenter till bärbara speldatorer, vilket skapar ett decentraliserat molnalternativ som kan uppnå enhetsekonomi som överträffar centraliserade leverantörer.
@gensynai 6/ Prime Intellect visade att decentraliserad träning fungerar med INTELLECT-2. Deras 32B-parametermodell tränades via globalt distribuerad RL med hjälp av PRIME-RL-ramverket, vilket visar att gränsmodeller kan byggas över kontinenter utan att offra prestanda.
@PrimeIntellect 7/ Bittensor-undernät är specialiserade för AI-arbetsbelastningar: - Undernät 3 (Templar) fokuserar på distribuerad träningsvalidering. - Subnät 9 (Macrocosmos) möjliggör utveckling av samarbetsmodeller, vilket skapar ekonomiska incitament för deltagarna i det neurala nätverket.
8/ Den decentraliserade träningstesen: Samla mer beräkning än någon enskild enhet, demokratisera tillgången till AI-utveckling och förhindra maktkoncentration. Eftersom resonemangsmodeller driver inferenskostnader som är högre än träning, kan distribuerade nätverk bli viktig infrastruktur i AI-ekonomin.
8,41K