onestamente che cazzo lol
Elon Musk
Elon Musk23 lug, 00:54
230k GPU, inclusi 30k GB200, sono operativi per l'addestramento di Grok @xAI in un singolo supercluster chiamato Colossus 1 (l'inferenza è gestita dai nostri fornitori di cloud). Nel Colossus 2, il primo lotto di 550k GB200 e GB300, sempre per l'addestramento, inizierà a essere attivato tra poche settimane. Come ha dichiarato Jensen Huang, @xAI è senza pari in velocità. Non è nemmeno paragonabile.
17,04K