honestamente, que diabos é essa, risos
Elon Musk
Elon Musk23 de jul., 00:54
230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar @xAI Grok em um único supercluster chamado Colossus 1 (a inferência é feita por nossos provedores de nuvem). No Colossus 2, o primeiro lote de 550k GB200s e GB300s, também para treinamento, começa a ficar online em algumas semanas. Como Jensen Huang afirmou, @xAI é incomparável em velocidade. Não está nem perto.
17,05K