Först var det @sama, nu är det @elonmusk – alla pratar om kravet på 100 gånger fler GPU:er för AI-applikationer. Framtiden ser ljus ut för Aethir 🔥 eftersom vi tillhandahåller decentraliserad GPU-beräkning byggd för skalning.
Elon Musk
Elon Musk23 juli 00:54
230k GPU:er, inklusive 30k GB200s, är operativa för att träna Grok @xAI i ett enda superkluster som kallas Colossus 1 (inferens görs av våra molnleverantörer). På Colossus 2 börjar den första omgången av 550k GB200 och GB300, även för träning, att gå online om några veckor. Som Jensen Huang har sagt är @xAI oöverträffad i hastighet. Det är inte ens i närheten.
19,11K