xAI gana simplemente porque tiene la tasa de aceleración más rápida de cualquier empresa de IA Cuando el premio es singular, la velocidad es lo único que importa
Elon Musk
Elon Musk23 jul, 00:54
230k GPUs, incluyendo 30k GB200s, están operativas para entrenar a Grok @xAI en un único supercluster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube). En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comenzará a estar en línea en unas pocas semanas. Como ha declarado Jensen Huang, @xAI no tiene rival en velocidad. No hay comparación.
396