> 5 gigawatt di capacità del centro dati Stargate AI > oltre 2 milioni di chip Se questi sono GB200, sarebbero 5M equivalenti H100. Se tutti utilizzati per addestrare un modello, potrebbero essere 2e28-4e28 FLOP per un pre-addestramento di sei mesi + run RLVR. Questo sarebbe 1000 volte il calcolo utilizzato per GPT4. Non abbiamo informazioni sui tempi per questa costruzione, ma suppongo che sarà dopo il 2027. La mia ipotesi è che i migliori modelli entro la fine del 2026 sarebbero ~2e27 di calcolo.
OpenAI
OpenAI22 lug, 20:04
È ufficiale: stiamo sviluppando 4,5 gigawatt di capacità aggiuntiva per il centro dati Stargate con Oracle negli Stati Uniti (per un totale di oltre 5 GW!). E il nostro sito Stargate I ad Abilene, TX, sta iniziando a entrare in funzione per alimentare la nostra ricerca sull'IA di nuova generazione.
12,52K