Las guerras de GPU y energía de 2027-2030 serán dos de los mayores catalizadores para DeAI. Mantente atento a este espacio.
Elon Musk
Elon Musk23 jul, 00:54
230k GPUs, incluyendo 30k GB200s, están operativas para entrenar a Grok @xAI en un único supercluster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube). En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comenzará a estar en línea en unas pocas semanas. Como ha declarado Jensen Huang, @xAI no tiene rival en velocidad. No hay comparación.
4,68K