Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dzisiaj miałem fajną rozmowę z @Shaughnessy119 na temat wymagań energetycznych i ograniczeń AI oraz potencjalnych wpływów na harmonogram dla AGI/ASI
Moje oczy otworzyły się na początku tygodnia, kiedy spotkałem się z przyjacielem, który buduje centra danych w dużej skali i powiedział, że dostawa energii dla nowych budynków jest przewidziana na lata 2028-2030 - to szalony długi czas w świecie AI
Więc naprawdę zastanawia, jak do diabła możemy utrzymać tempo innowacji w AI lub nawet po prostu nadążyć za Chinami, biorąc pod uwagę ograniczenia energetyczne?
Tommy przeprowadził dobre badania, a liczby są oszałamiające:
GPT-3 użył szacunkowo 1,3 GWh energii do treningu
GPT-4 użył szacunkowo 50-60 GWh do treningu
Aby wytrenować model AGI, może to zająć 600 000+ GWh!
Aby to zobrazować, to około 22% całkowitej rocznej produkcji energii elektrycznej w USA.
Oczywiście, to tylko szacunki i nie uwzględniają żadnych dużych innowacji w produkcji energii, ale daje nam to ogromne zderzenie z rzeczywistością na temat 1) czego to może wymagać, i 2) implikacji na harmonogramy osiągnięcia AGI, biorąc pod uwagę, że nie można po prostu dostarczyć 600 000 GWh nowej energii w najbliższym czasie
To wydaje się być bardzo niedocenianym i mało omawianym wymiarem wyścigu AI
Będę kontynuował głębsze badania na ten temat, prawdopodobnie zasługuje to na bardziej szczegółowy raport.
A propos, jeśli chcesz zobaczyć szczegóły tego, co ChatGPT miał do powiedzenia na ten temat, oto one:
Ponadto, to nawet nie uwzględnia wykładniczego zapotrzebowania na wnioskowanie
Te obciążenia mogą być rozdzielane pomiędzy mniejsze centra danych, gdzie wymagania dotyczące energii są niższe, ale wciąż jest to pobór z sieci
Zsumuj to wszystko, a pojawia się ogromna wąska gardło.
11,01K
Najlepsze
Ranking
Ulubione