🚨 Smettila di indovinare quale modello AI il tuo computer può effettivamente eseguire. Questo strumento scansiona l'hardware e ti dice esattamente quali LLM funzioneranno. Un comando. Si chiama llmfit. 497 modelli. 133 fornitori. Controlla la tua RAM, CPU e GPU, quindi classifica ogni modello in base a ciò che si adatta. Niente più download di un modello da 70B solo per vederlo bloccarsi. Ecco cosa fa: → Rileva il tuo hardware esatto (NVIDIA, AMD, Intel Arc, Apple Silicon) → Sceglie la migliore quantizzazione che si adatta alla tua memoria → Valuta ogni modello in base a qualità, velocità, adattamento e lunghezza del contesto → Gestisce automaticamente configurazioni multi-GPU e architetture MoE → Si connette a Ollama così puoi scaricare immediatamente la migliore corrispondenza Ecco la parte più sorprendente: Mixtral 8x7B ha 46.7B di parametri totali. La maggior parte degli strumenti pensa che tu abbia bisogno di 24GB di VRAM. Ma solo 12.9B di parametri sono attivi per token. llmfit lo sa. Valuta il reale requisito a ~6.6GB. Quella sola funzionalità sblocca modelli che le persone pensavano di non poter eseguire. brew install llmfit 6.5K stelle su GitHub. Costruito in Rust. Licenza MIT. 100% Open Source.