Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Har haft en rolig chatt idag med @Shaughnessy119 om energikraven och begränsningarna för AI och potentiella effekter på tidslinjen för AGI/ASI
Mina ögon öppnades tidigare i veckan när jag träffade en vän som bygger storskaliga datacenter och sa att kraftleveransen för nya byggen är 2028-2030 – det är en galet lång tid i AI-världen
Så det får dig verkligen att undra, hur kan vi fortsätta innovationstakten inom AI eller till och med bara hålla jämna steg med Kina med tanke på energibegränsningarna?
Tommy gjorde en del bra forskning och siffrorna är häpnadsväckande:
GPT-3 använde uppskattningsvis 1,3 GWh energi för att träna
GPT-4 använde uppskattningsvis 50-60 GWh för att träna
För att träna en AGI-modell kan det krävas 600 000+ GWh!
För att sätta det i perspektiv är det cirka 22 % av hela den årliga elproduktionen i USA.
Naturligtvis är detta bara uppskattningar och tar inte hänsyn till några större innovationer inom energiproduktion, men det ger oss en enorm verklighetskontroll av 1) vad som kan krävas och 2) konsekvenserna för tidslinjerna för att nå AGI med tanke på att du inte bara kan tillhandahålla 600 000 GWh ny energi när som helst snart
Detta verkar vara en mycket underskattad och underpratad dimension i AI-kapplöpningen
Kommer att fortsätta att djupdyka om detta mer, förmodligen värt en mer djupgående rapport
BTW om du vill se detaljerna i vad ChatGPT hade att säga om detta ämne, varsågod:
Dessutom tar detta inte ens hänsyn till den exponentiella efterfrågan på inferens
Dessa arbetsbelastningar kan fördelas över mindre datacenter där strömkraven är lägre, men det är fortfarande en dragning från nätet
Lägg ihop allt detta och det finns en enorm flaskhals som hotar
11,07K
Topp
Rankning
Favoriter