Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tive um bate-papo divertido hoje com @Shaughnessy119 sobre os requisitos e restrições de energia da IA e os possíveis impactos no cronograma da AGI / ASI
Meus olhos se abriram no início da semana, quando me encontrei com um amigo que constrói data centers de grande escala e disse que a entrega de energia para novas construções é 2028-2030 - isso é muito tempo no mundo da IA
Então, isso faz você realmente se perguntar, como continuamos o ritmo da inovação em IA ou mesmo apenas acompanhamos a China, dadas as restrições de energia?
Tommy fez uma boa pesquisa e os números são incompreensíveis:
O GPT-3 usou cerca de 1,3 GWh de energia para treinar
GPT-4 usou cerca de 50-60 GWh para treinar
Para treinar um modelo AGI, pode levar 600.000+ GWh!
Para colocar isso em perspectiva, isso é cerca de 22% de toda a geração anual de eletricidade dos EUA.
Claro, essas são apenas estimativas e não levam em consideração nenhuma inovação importante na produção de energia, mas nos oferecem uma enorme verificação da realidade sobre 1) o que poderia ser necessário e 2) as implicações nos cronogramas para alcançar a AGI, já que você não pode simplesmente fornecer 600.000 GWh de nova energia tão cedo
Esta parece ser uma dimensão muito subestimada e pouco falada para a corrida da IA
Vou continuar a me aprofundar mais nisso, provavelmente digno de um relatório mais aprofundado
BTW, se você quiser ver os detalhes do que o ChatGPT tinha a dizer sobre este tópico, aqui está:
Além disso, isso nem mesmo leva em consideração a demanda exponencial por inferência
Essas cargas de trabalho podem ser distribuídas em data centers menores, onde os requisitos de energia são menores, mas ainda é uma atração da rede
Some tudo isso e há um enorme gargalo se aproximando
11,04K
Melhores
Classificação
Favoritos