230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar o Grok @xAI em um único supercluster chamado Colossus 1 (a inferência é feita pelos nossos provedores de nuvem). No Colossus 2, o primeiro lote de 550 mil GB200s e GB300s, também para treinamento, começará a entrar online em algumas semanas. Como Jensen Huang afirmou, @xAI é incomparável em velocidade. Não chega nem perto.
ALEX
ALEX13/10/2024
O CEO da Nvidia, Jensen Huang, sobre Elon Musk e @xAI "Nunca foi feito antes – a xAI fez em 19 dias o que todos os outros precisam de um ano para realizar. Isso é sobre-humano – Há apenas uma pessoa no mundo que poderia fazer isso – Elon Musk é singular na sua compreensão da engenharia."
347,34K