Czuję, że to nie dostało wystarczającej uwagi! To duża sprawa, jeśli to prawda i jest wprowadzane. Już słyszałeś, jak chłopaki od GPU/ASIC mówią o skalowaniu W RAMACH centrów danych. To nie są tylko centra danych znajdujące się na granicach stanów od siebie. Mówimy o 1,000 km+. Jeśli to prawda, to oferuje potencjalne obejście niektórych fizycznych ograniczeń infrastruktury/mocy, ponieważ nie musisz mieć wszystkich MW/GW w jednej lokalizacji i możesz sieciować w wielu lokalizacjach (i tych z mniejszymi ograniczeniami) znacznie skuteczniej. Kto to kupuje, a kto nie? Czekamy na wasze opinie. Czy rozproszona nauka jest już tutaj? "@EpochAIResearch sugeruje, że przeprowadzenie treningów o mocy 10 GW w dwóch tuzinach lokalizacji — połączonych siecią rozciągającą się na tysiące km — jest wykonalne. Używając niedostatecznie wykorzystywanej generacji jako wskaźnika dostępności mocy, identyfikujemy sieć 4,800 km z 23 lokalizacjami w USA, które teoretycznie mogłyby wspierać 10GW rozproszony klaster AI... Przeprowadzanie dużych zdecentralizowanych treningów jest wykonalne bez dużego wzrostu czasu treningu ani budżetu."