Känner att detta inte fick tillräckligt med uppmärksamhet! Stor grej om det är sant och rullar ut. Du har hört att GPU/ASIC-killarna redan pratar om att skala ÖVER datacenter. Det handlar inte bara om datacenter som ligger vid statsgränser på avstånd från varandra. På tal om 1 000 km+. Om det är sant erbjuder detta en potentiell lösning på några av de fysiska infra-/effektbegränsningarna eftersom du inte skulle behöva ha all MW/GW på en enda plats och kan nätverka över flera platser (och de med mindre begränsningar) mycket mer effektivt. Vem köper det och vem gör det inte? Låt oss höra det Distribuerad träning är här? "@EpochAIResearch forskning tyder på att det är möjligt att genomföra 10 GW-övningar på två dussin platser – sammanlänkade av ett nätverk som sträcker sig tusentals kilometer. Genom att använda underutnyttjad generering som en proxy för krafttillgänglighet identifierar vi ett 4 800 km långt nätverk av 23 platser i USA som teoretiskt sett skulle kunna stödja ett 10GW distribuerat AI-kluster ... Att genomföra stora decentraliserade träningskörningar är genomförbart utan en stor ökning av vare sig utbildningstid eller budget."