Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Antrenamentul AI descentralizat trece de la imposibil la inevitabil.
Era monopolurilor centralizate de inteligență artificială este pusă la încercare de protocoale revoluționare care permit antrenarea colaborativă a modelelor în rețelele distribuite.

2/ Primer Alert: Qwen 3 Coder tocmai a fost lansat și schimbă jocul.
Noul model MoE cu 480B de parametri activi cu 35B de parametri activi atinge performanțe de ultimă generație în sarcinile de codificare agentică, rivalizând cu Claude Sonnet 4.
Acest codificator complet open-source acceptă context 256K nativ și 1M cu extrapolare.

3/ Pluralis este pionier în "Protocol Learning", o abordare radicală în care modelele sunt antrenate în colaborare, dar niciodată pe deplin materializate într-o singură locație.
Runda de 7,6 milioane de dolari de la USV și CoinFund susține viziunea lor de inteligență artificială cu adevărat deschisă, în care contribuitorii împart avantajul economic fără a renunța la controlul modelului.

@PluralisHQ 4/ Nous Research a strâns 50 de milioane de dolari pentru a provoca OpenAI cu modele guvernate de comunitate.
Viitorul lor model "Consilience" de 40B de parametri folosește cadrul Psyche cu compresie inspirată de JPEG pentru a permite antrenamentul distribuit eficient pe hardware eterogen.

5/ Gensyn a obținut ~ 51 de milioane de dolari până în prezent pentru a construi "clusterul global de învățare automată".
Protocolul lor conectează calculul subutilizat la nivel mondial, de la centre de date la laptopuri de gaming, creând o alternativă cloud descentralizată care ar putea obține o economie unitară care depășește furnizorii centralizați.

@gensynai 6/ Prime Intellect a dovedit că antrenamentul descentralizat funcționează cu INTELLECT-2.
Modelul lor de 32B de parametri a fost antrenat prin RL distribuit la nivel global folosind cadrul PRIME-RL, demonstrând că modelele de frontieră pot fi construite pe continente fără a sacrifica performanța.

@PrimeIntellect 7/ Subrețelele Bittensor sunt specializate pentru sarcini de lucru AI:
- Subrețeaua 3 (Templar) se concentrează pe validarea antrenamentului distribuit.
- Subrețeaua 9 (Macrocosmos) permite dezvoltarea modelului colaborativ, creând stimulente economice pentru participanții la rețeaua neuronală.


8/ Teza de formare descentralizată: Agregați mai multe calcule decât orice entitate individuală, democratizați accesul la dezvoltarea AI și preveniți concentrarea puterii.
Deoarece modelele de raționament generează costuri de inferență mai mari decât antrenamentul, rețelele distribuite pot deveni infrastructură esențială în economia AI.
8,33K
Limită superioară
Clasament
Favorite