Đầu tiên là @sama, bây giờ là @elonmusk — mọi người đang nói về yêu cầu cần 100 lần GPU hơn cho các ứng dụng AI. Tương lai trông sáng sủa cho Aethir 🔥 khi chúng tôi cung cấp tính toán GPU phi tập trung được xây dựng để mở rộng.
Elon Musk
Elon Musk20 giờ trước
230k GPU, bao gồm 30k GB200, đang hoạt động để đào tạo Grok @xAI trong một siêu cụm duy nhất gọi là Colossus 1 (việc suy diễn được thực hiện bởi các nhà cung cấp đám mây của chúng tôi). Tại Colossus 2, lô đầu tiên gồm 550k GB200 và GB300, cũng để đào tạo, sẽ bắt đầu hoạt động trong vài tuần tới. Như Jensen Huang đã tuyên bố, @xAI không có đối thủ về tốc độ. Nó thậm chí không gần.
14,26K