> 5 gigawatts de capacidade do centro de dados Stargate AI > mais de 2 milhões de chips Se estes forem GB200, isso equivaleria a 5M H100. Se todos usados para treinar um modelo, isso poderia resultar em 2e28-4e28 FLOP para um pré-treinamento de seis meses + execução de RLVR. Isso seria 1000x o poder computacional usado para o GPT4. Não temos informações sobre os prazos para essa construção, mas eu apostaria que será depois de 2027. Meu palpite é que os melhores modelos até o final de 2026 seriam ~2e27 de computação.
OpenAI
OpenAI22/07, 20:04
É oficial: estamos a desenvolver 4,5 gigawatts de capacidade adicional do centro de dados Stargate com a Oracle nos EUA (totalizando mais de 5 GWs!). E o nosso site Stargate I em Abilene, TX, está a começar a entrar online para alimentar a nossa pesquisa em IA de próxima geração.
12,53K