热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
Kimi-K2.5 通过 KTransformers+SGLang 在混合 GPU/CPU 内存卸载配置下运行:4x RTX Pro 6000 Blackwells + 640GB RAM
原始基准是在 8x GPU 上使用合成编码代理样式工作负载,目标为 2k-45k 输入标记,80-3k 最大输出标记,并且最多支持 10 个并发请求。重新在新的混合设置上运行
我能得到的最佳结果:
- 23.03 输出标记/秒 @ 10 个并发请求
- 平均 TTFT:~60s
- 中位 TTFT:~64s
基准结果:
- 74.39 输出标记/秒 @ 10 个并发请求
- 平均 TTFT:~9s
- 中位 TTFT:~3.7s


2026年2月26日
Kimi-K2.5的初步测试通过KTransformers+SGLang进行,使用混合的4x RTX Pro 6000 Blackwell + 640GB/1.5TB CPU内存卸载。计算由Lium pods提供:
- 19.97输出tok/s @ 10个并发请求
- 平均TTFT: ~120s
- 中位数TTFT: ~102s
需要调整KT标志以进一步优化此设置,这在很大程度上依赖于整体系统的CPU核心数量和可用RAM。GPU <-> PCIe <-> RAM的互连是最明显的瓶颈。
每个MoE层在GPU上的专家:
--kt-num-gpu-experts=128
专用于MoE推理的CPU核心:
--kt-cpuinfer=104
CPU专家与GPU工作重叠:
--kt-max-deferred-experts-per-token=2
每个预填充块的最大令牌数:
--chunked-prefill-size=32658
禁用CUDA图捕获:
--disable-cuda-graph

完整命令:
export CUDA_VISIBLE_DEVICES=0,1,2,3
export OMP_NUM_THREADS=1
export MKL_NUM_THREADS=1
export OPENBLAS_NUM_THREADS=1
export NUMEXPR_NUM_THREADS=1
export VECLIB_MAXIMUM_THREADS=1
export PYTHONUNBUFFERED=1
exec python -m sglang.launch_server \
--model-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-weight-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-threadpool-count 1 \
--kt-method RAWINT4 \
--trust-remote-code \
--served-model-name kimi_k2 \
--tool-call-parser kimi_k2 \
--reasoning-parser kimi_k2 \
--disable-radix-cache \
--disable-chunked-prefix-cache \
--tensor-parallel-size 4 \
--enable-p2p-check \
--disable-shared-experts-fusion \
--disable-cuda-graph \
--host 0.0.0.0 \
--port 8000 \
--kt-cpuinfer 32 \
--kt-num-gpu-experts 128 \
--kt-max-deferred-experts-per-token 2 \
--kt-gpu-prefill-token-threshold 1024 \
--kt-expert-placement-strategy uniform \
--mem-fraction-static 0.92 \
--enable-mixed-chunk \
--chunked-prefill-size 32658 \
--max-total-tokens 200000 \
--attention-backend flashinfer
51
热门
排行
收藏