Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
kracht/energie is altijd de bottleneck geweest voor de menselijke vooruitgang. Vandaag de dag is dat niet anders.
kijk gewoon terug naar onze hele geschiedenis in de afgelopen 2000 jaar.

25 jul, 01:31
Vandaag een leuk gesprek gehad met @Shaughnessy119 over de energievereisten en beperkingen van AI en de mogelijke impact op de tijdlijn voor AGI/ASI
Mijn ogen werden eerder deze week geopend toen ik een vriend ontmoette die grootschalige datacenters bouwt en zei dat de energievoorziening voor nieuwe gebouwen 2028-2030 is - dat is een belachelijk lange tijd in de wereld van AI
Dus het doet je echt afvragen, hoe in hemelsnaam kunnen we het tempo van AI-innovatie voortzetten of zelfs maar bijhouden met China gezien de energiebeperkingen?
Tommy heeft goed onderzoek gedaan en de cijfers zijn verbijsterend:
GPT-3 gebruikte naar schatting 1,3 GWh aan energie om te trainen
GPT-4 gebruikte naar schatting 50-60 GWh om te trainen
Om een AGI-model te trainen, kan het meer dan 600.000 GWh kosten!
Om dat in perspectief te plaatsen, dat is ongeveer 22% van de totale jaarlijkse elektriciteitsopwekking van de VS.
Natuurlijk zijn dit slechts schattingen en houdt het geen rekening met belangrijke innovaties in energieproductie, maar het biedt ons wel een enorme reality check over 1) wat het zou kunnen kosten, en 2) de implicaties voor de tijdlijnen om AGI te bereiken, gezien je niet zomaar 600.000 GWh aan nieuwe energie kunt voorzien op korte termijn
Dit lijkt een zeer ondergewaardeerde en onderbelichte dimensie van de AI-race te zijn
Ik ga hier verder op in, waarschijnlijk waardig voor een meer diepgaand rapport
2,13K
Boven
Positie
Favorieten