Erste Tests für Kimi-K2.5 über KTransformers+SGLang, auf einem hybriden 4x RTX Pro 6000 Blackwell + 640GB/1.5TB CPU-Speicherentlastung. Berechnung bereitgestellt von Lium-Pods: - 19,97 Ausgabe tok/s bei 10 gleichzeitigen Anfragen - Durchschnittliche TTFT: ~120s - Median TTFT: ~102s Muss mit den KT-Flags spielen, um dieses Setup weiter zu optimieren, das stark von der Gesamtanzahl der CPU-Kerne und dem verfügbaren RAM abhängt. Die Interkonnektivität zwischen GPU <-> PCIe <-> RAM ist der offensichtlichste Engpass. Experten pro MoE-Schicht auf GPU: --kt-num-gpu-experts=128 CPU-Kerne, die der MoE-Inferenz gewidmet sind: --kt-cpuinfer=104 CPU-Experten arbeiten überlappend mit GPU-Arbeit: --kt-max-deferred-experts-per-token=2 Maximale Tokens pro Prefill-Chunk: --chunked-prefill-size=32658 CUDA-Grafikaufnahme deaktiviert: --disable-cuda-graph
Yannick Nick
Yannick Nick25. Feb. 2026
Kimi-K2.5 auf 8x RTX Pro 6000 Blackwells ausführen, mit dem Plan, schließlich ein CPU/GPU-Hybridinferenz-Setup über KTransformers+SGLang mit 4x derselben GPUs zu testen Ich bin sehr neugierig, die Gesamtleistung des Hybrid-Setups im Vergleich zu einem quantisierten Kimi-K2.5-Anpassung über die 4 GPUs zu messen. Das Hybrid-Setup benötigt fast 768 GB RAM Um zu beginnen, hier ist eine Basislinie über 8x GPUs mit einer synthetischen Coding-Agent-Stil-Arbeitslast, die auf 2k-45k Eingabetokens abzielt, 80-3k maximale Ausgabetokens und bis zu 10 gleichzeitige Anfragen. SGLangs --mem-fraction-static-Flag ist auf 0,90 gesetzt Basislinien-Durchschnittsdurchsatz: ~74 Ausgabetokens/s bei 10 gleichzeitigen Anfragen
KTransformers+SGLang-Flags zur Reproduktion der Arbeit: ========== export CUDA_VISIBLE_DEVICES=0,1,2,3 export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 export OPENBLAS_NUM_THREADS=1 export NUMEXPR_NUM_THREADS=1 export VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-experts 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-method RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-placement-strategy uniform \ --trust-remote-code \ --mem-fraction-static 0.90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --enable-mixed-chunk \ --tensor-parallel-size 4 \ --enable-p2p-check \ --disable-shared-experts-fusion \ --chunked-prefill-size 32658 \ --max-total-tokens 120000 \ --attention-backend flashinfer \ --disable-cuda-graph \ --host 0.0.0.0 \ --port 8000
123