Pengujian awal untuk Kimi-K2.5 melalui KTransformers+SGLang, pada hybrid 4x RTX Pro 6000 Blackwell + 640GB/1.5TB memory offload. Komputasi yang disediakan oleh pod Lium: - 19,97 keluaran tok/s @ 10 permintaan bersamaan - TTFT rata-rata: ~120 detik - TTFT Median: ~102 detik Perlu bermain dengan bendera KT untuk lebih mengoptimalkan pengaturan ini, yang sangat bergantung pada jumlah inti CPU sistem secara keseluruhan & RAM yang tersedia. Interkonektivitas RAM <-> PCIe <-> GPU adalah hambatan yang paling jelas Pakar per Lapisan MoE pada GPU: --kt-num-gpu-experts=128 Inti CPU yang didedikasikan untuk inferensi MoE: --kt-cpuinfer=104 Pakar CPU bekerja tumpang tindih pekerjaan GPU: --kt-max-deferred-experts-per-token=2 Token maksimum per potongan pra-isian: --chunked-prefill-size=32658 Pengambilan grafik CUDA dinonaktifkan: --nonaktifkan-cuda-grafik
Yannick Nick
Yannick Nick25 Feb 2026
Menjalankan Kimi-K2.5 pada 8x RTX Pro 6000 Blackwells, dengan rencana untuk akhirnya menguji pengaturan inferensi hibrida CPU/GPU melalui KTransformers+SGLang pada 4x GPU yang sama Sangat penasaran untuk mengukur kinerja keseluruhan dengan pengaturan hybrid dibandingkan dengan Kimi-K2.5 yang dikuantisasi yang cocok di 4 GPU. Pengaturan hybrid akan membutuhkan RAM hampir 768GB Untuk memulai, berikut adalah garis besar di 8x GPU menggunakan beban kerja gaya agen pengkodean sintetis yang menargetkan token input 2k-45k, token output maks 80-3k, dan dengan hingga 10 permintaan bersamaan. Bendera --mem-fraction-static SGLang diatur ke 0,90 Throughput rata-rata dasar: ~74 token keluaran/dtk @ 10 permintaan bersamaan
KTransformers+SGLang bendera untuk mereproduksi pekerjaan: ========== ekspor CUDA_VISIBLE_DEVICES=0,1,2,3 ekspor OMP_NUM_THREADS=1 ekspor MKL_NUM_THREADS=1 ekspor OPENBLAS_NUM_THREADS=1 ekspor NUMEXPR_NUM_THREADS=1 ekspor VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-berat-jalur <HF_PATH>/model--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-ahli 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-metode RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-penempatan-strategi seragam \ --trust-remote-code \ --mem-pecahan-statis 0,90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --aktifkan-campuran-potongan \ --tensor-paralel-ukuran 4 \ --aktifkan-p2p-periksa \ --nonaktifkan-bersama-ahli-fusi \ --chunked-prefill-size 32658 \ --max-total-token 120000 \ --attention-backend flashinfer \ --nonaktifkan-cuda-graph \ --host 0.0.0.0 \ --port 8000
125