> 5 gigavatios de capacidad del centro de datos de Stargate AI > más de 2 millones de chips Si estos son GB200, eso equivaldría a 5M de H100. Si se usaran todos para entrenar un modelo, eso podría ser de 2e28-4e28 FLOP para un preentrenamiento de seis meses + ejecución de RLVR. Esto sería 1000 veces la computación utilizada para GPT4. No tenemos información sobre los plazos para esta construcción, pero yo diría que será después de 2027. Mi suposición es que los mejores modelos para finales de 2026 serían ~2e27 de computación.
OpenAI
OpenAI22 jul, 20:04
Es oficial: estamos desarrollando 4.5 gigavatios de capacidad adicional en el centro de datos Stargate con Oracle en EE. UU. (¡para un total de más de 5 GW!). Y nuestro sitio Stargate I en Abilene, TX, está comenzando a entrar en funcionamiento para alimentar nuestra investigación en IA de próxima generación.
12,54K