Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Har hatt en morsom prat i dag med @Shaughnessy119 om energikravene og begrensningene til AI og potensielle innvirkninger på tidslinjen for AGI/ASI
Øynene mine ble åpnet tidligere i uken da jeg møtte en venn som bygger store datasentre og sa at strømforsyningen for nybygg er 2028-2030 – det er vanvittig lang tid i AI-verdenen
Så det får deg virkelig til å lure på, hvordan fortsetter vi tempoet i AI-innovasjon eller til og med bare holder tritt med Kina gitt energibegrensningene?
Tommy gjorde noen gode undersøkelser, og tallene er forbløffende:
GPT-3 brukte anslagsvis 1,3 GWh energi til å trene
GPT-4 brukte anslagsvis 50-60 GWh til å trene
For å trene en AGI-modell kan det ta 600 000+ GWh!
For å sette det i perspektiv, er det omtrent 22 % av hele den årlige elektrisitetsproduksjonen i USA.
Selvfølgelig er dette bare estimater og tar ikke hensyn til noen store innovasjoner innen energiproduksjon, men det gir oss en enorm realitetssjekk på 1) hva som kan kreves, og 2) implikasjonene for tidslinjene for å nå AGI gitt at du ikke bare kan levere 600 000 GWh ny energi når som helst snart
Dette ser ut til å være en veldig undervurdert og lite omtalt dimensjon til AI-kappløpet
Kommer til å fortsette å dypdykke mer i dette, sannsynligvis verdig en mer dyptgående rapport
BTW hvis du vil se detaljene om hva ChatGPT hadde å si om dette emnet, her går du:
Dessuten tar dette ikke engang hensyn til den eksponentielle etterspørselen etter slutning
Disse arbeidsbelastningene kan fordeles på mindre datasentre der strømbehovet er lavere, men det er fortsatt et trekk fra nettet
Legg alt sammen, og det er en stor flaskehals som truer
11,01K
Topp
Rangering
Favoritter