Initiële tests voor Kimi-K2.5 via KTransformers+SGLang, op een hybride 4x RTX Pro 6000 Blackwell + 640GB/1.5TB CPU-geheugenafvoer. Rekenkracht geleverd door Lium pods: - 19.97 output tok/s @ 10 gelijktijdige verzoeken - Gemiddelde TTFT: ~120s - Mediaan TTFT: ~102s Moet spelen met de KT-vlaggen om deze setup verder te optimaliseren, die sterk afhankelijk is van het totale aantal CPU-kernen van het systeem en beschikbare RAM. GPU <-> PCIe <-> RAM-interconnectiviteit is de meest voor de hand liggende bottleneck Experts per MoE-laag op GPU: --kt-num-gpu-experts=128 CPU-kernen toegewezen aan MoE-inferentie: --kt-cpuinfer=104 CPU-experts werken overlappend met GPU-werk: --kt-max-deferred-experts-per-token=2 Max tokens per prefill chunk: --chunked-prefill-size=32658 CUDA-grafiekopname uitgeschakeld: --disable-cuda-graph
Yannick Nick
Yannick Nick25 feb 2026
Kimi-K2.5 draaien op 8x RTX Pro 6000 Blackwells, met plannen om uiteindelijk een CPU/GPU hybride inferentie-opstelling te testen via KTransformers+SGLang op 4x van dezelfde GPU's Zeer benieuwd naar de algehele prestaties van de hybride opstelling in vergelijking met een gequantiseerde Kimi-K2.5 fit over de 4 GPU's. De hybride opstelling heeft bijna 768GB RAM nodig Om te beginnen hier een basislijn over 8x GPU's met een synthetische coderingsagent stijl werklast gericht op 2k-45k invoertokens, 80-3k maximale uitvoertokens, en met tot 10 gelijktijdige verzoeken. SGLang's --mem-fraction-static vlag is ingesteld op 0.90 Basislijn gemiddelde doorvoer: ~74 uitvoertokens/s @ 10 gelijktijdige verzoeken
KTransformers+SGLang vlaggen om werk te reproduceren: ========== export CUDA_VISIBLE_DEVICES=0,1,2,3 export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 export OPENBLAS_NUM_THREADS=1 export NUMEXPR_NUM_THREADS=1 export VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-experts 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-method RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-placement-strategy uniform \ --trust-remote-code \ --mem-fraction-static 0.90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --enable-mixed-chunk \ --tensor-parallel-size 4 \ --enable-p2p-check \ --disable-shared-experts-fusion \ --chunked-prefill-size 32658 \ --max-total-tokens 120000 \ --attention-backend flashinfer \ --disable-cuda-graph \ --host 0.0.0.0 \ --port 8000
128