Dnes jsem si s @Shaughnessy119 bavil o energetických požadavcích a omezeních umělé inteligence a potenciálních dopadech na časovou osu AGI/ASI Oči se mi otevřely na začátku týdne, když jsem se setkal s přítelem, který staví rozsáhlá datová centra, a řekl, že dodávka energie pro nové stavby je 2028-2030 – to je ve světě umělé inteligence šíleně dlouhá doba Takže vás to opravdu nutí přemýšlet, jak budeme pokračovat v tempu inovací v oblasti umělé inteligence, nebo dokonce jen držet krok s Čínou vzhledem k energetickým omezením? Tommy udělal dobrý průzkum a čísla jsou ohromující: GPT-3 spotřeboval na trénink odhadem 1,3 GWh energie GPT-4 spotřeboval k tréninku odhadem 50-60 GWh K trénování modelu AGI může být potřeba 600 000+ GWh! Abychom to uvedli na pravou míru, je to asi 22 % celkové roční výroby elektřiny v USA. Samozřejmě, že se jedná pouze o odhady a nezohledňují žádné zásadní inovace ve výrobě energie, ale nabízí nám to obrovský přehled o realitě 1) toho, co by to mohlo trvat, a 2) o důsledcích pro dosažení AGI, vzhledem k tomu, že v dohledné době nemůžete jen tak poskytnout 600 000 GWh nové energie Zdá se, že jde o velmi nedoceněný a málo diskutovaný rozměr závodu o umělou inteligenci Budu se do toho dál hlouběji ponořit, pravděpodobně si zasloužíme podrobnější zprávu
BTW, pokud se chcete podívat na podrobnosti o tom, co ChatGPT k tomuto tématu řekl, tady to máte:
Také to ani nebere v úvahu exponenciální poptávku po inferenci Tyto pracovní zátěže lze distribuovat mezi menší datová centra, kde jsou požadavky na napájení nižší, ale stále je to tah ze sítě Když to všechno sečtete, na obzoru se rýsuje obrovské úzké hrdlo
11K