Las guerras de GPU y energía de 2027-2030 serán dos de los mayores catalizadores para DeAI. Mira este espacio.
Elon Musk
Elon Musk23 jul, 00:54
Las GPU de 230k, incluidas las GB200 de 30k, están operativas para entrenar @xAI de Grok en un solo superclúster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube). En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comienza a estar en línea en unas pocas semanas. Como ha declarado Jensen Huang, @xAI es inigualable en velocidad. Ni siquiera está cerca.
4.69K