honestamente, ¿qué diablos realmente jajaja?
Elon Musk
Elon Musk23 jul, 00:54
Las GPU de 230k, incluidas las GB200 de 30k, están operativas para entrenar @xAI de Grok en un solo superclúster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube). En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comienza a estar en línea en unas pocas semanas. Como ha declarado Jensen Huang, @xAI es inigualable en velocidad. Ni siquiera está cerca.
17.04K