> 5 gigavatios de capacidad del centro de datos de Stargate AI > más de 2 millones de fichas Si estos son GB200, serían equivalentes a 5M H100. Si todos se usaran para entrenar un modelo, eso podría ser 2e28-4e28 FLOP para un preentrenamiento de seis meses + RLVR run. Esto sería 1000 veces el cómputo utilizado para GPT4. No llegamos a conocer los plazos para esta construcción, pero supongo que más tarde de 2027. Supongo que los mejores modelos para fines de 2026 serían ~ 2e27 de cómputo.
OpenAI
OpenAI22 jul, 20:04
Es oficial: estamos desarrollando 4.5 gigavatios de capacidad adicional del centro de datos Stargate con Oracle en los EE. UU. (¡para un total de 5+ GW!). Y nuestro sitio Stargate I en Abilene, TX, está comenzando a conectarse para impulsar nuestra investigación de IA de próxima generación.
12.52K