Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Các bài kiểm tra ban đầu cho Kimi-K2.5 thông qua KTransformers+SGLang, trên một hệ thống lai 4x RTX Pro 6000 Blackwell + 640GB/1.5TB bộ nhớ CPU. Tính toán được cung cấp bởi các pod Lium:
- 19.97 tok/s đầu ra @ 10 yêu cầu đồng thời
- Thời gian TTFT trung bình: ~120s
- Thời gian TTFT trung vị: ~102s
Cần điều chỉnh các cờ KT để tối ưu hóa thêm thiết lập này, điều này phụ thuộc nhiều vào số lượng lõi CPU của toàn bộ hệ thống & RAM có sẵn. Sự kết nối giữa GPU <-> PCIe <-> RAM là nút thắt rõ ràng nhất
Chuyên gia theo từng lớp MoE trên GPU:
--kt-num-gpu-experts=128
Các lõi CPU dành riêng cho suy diễn MoE:
--kt-cpuinfer=104
Các chuyên gia CPU làm việc chồng chéo với công việc GPU:
--kt-max-deferred-experts-per-token=2
Số token tối đa cho mỗi khối prefill:
--chunked-prefill-size=32658
Bắt đồ thị CUDA bị vô hiệu hóa:
--disable-cuda-graph


25 thg 2, 2026
Running Kimi-K2.5 on 8x RTX Pro 6000 Blackwells, with plans to eventually test a CPU/GPU hybrid inference setup through KTransformers+SGLang on 4x of the same GPUs
Very curious to gauge the overall performance with the hybrid setup compared to a quantized Kimi-K2.5 fit across the 4 GPUs. The hybrid setup will need close to 768GB of RAM
To start here's a baseline across 8x GPUs using a synthetic coding agent style workload targeting 2k-45k input tokens, 80-3k max output tokens, and with up to 10 concurrent requests. SGLang's --mem-fraction-static flag is set to 0.90
Baseline avg throughput:
~74 output tokens/s @ 10 concurrent requests

Cờ KTransformers+SGLang để tái tạo công việc:
==========
export CUDA_VISIBLE_DEVICES=0,1,2,3
export OMP_NUM_THREADS=1
export MKL_NUM_THREADS=1
export OPENBLAS_NUM_THREADS=1
export NUMEXPR_NUM_THREADS=1
export VECLIB_MAXIMUM_THREADS=1
python -m sglang.launch_server \
--model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \
--kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \
--kt-cpuinfer 104 \
--kt-threadpool-count 2 \
--kt-num-gpu-experts 128 \
--kt-max-deferred-experts-per-token 2 \
--kt-method RAWINT4 \
--kt-gpu-prefill-token-threshold 400 \
--kt-expert-placement-strategy uniform \
--trust-remote-code \
--mem-fraction-static 0.90 \
--served-model-name kimi_k2 \
--tool-call-parser kimi_k2 \
--reasoning-parser kimi_k2 \
--disable-radix-cache \
--disable-chunked-prefix-cache \
--enable-mixed-chunk \
--tensor-parallel-size 4 \
--enable-p2p-check \
--disable-shared-experts-fusion \
--chunked-prefill-size 32658 \
--max-total-tokens 120000 \
--attention-backend flashinfer \
--disable-cuda-graph \
--host 0.0.0.0 \
--port 8000
126
Hàng đầu
Thứ hạng
Yêu thích