🚨 Pare de adivinhar qual modelo de IA seu computador realmente pode rodar. Essa ferramenta escaneia seu hardware e diz exatamente quais LLMs funcionam. Um comando. Isso se chama llmfit. Modelos 497. 133 prestadores. Ele verifica sua RAM, CPU e GPU, e depois classifica cada modelo pelo que encaixa. Chega de baixar um modelo 70B só para ver ele travar. Veja o que ele faz: → Detecta exatamente seu hardware (NVIDIA, AMD, Intel Arc, Apple Silicon) → Escolhe a quantização que melhor se encaixa na sua memória → Avalia cada modelo em qualidade, velocidade, ajuste e comprimento do contexto → Gerencia automaticamente configurações multi-GPU e arquiteturas MoE → se conecta ao Ollama para que você possa baixar a melhor combinação instantaneamente Aqui está a parte mais louca: O Mixtral 8x7B possui 46,7B de parâmetros totais. A maioria das ferramentas acha que você precisa de 24GB de VRAM. Mas apenas 12,9 bilhões de parâmetros estão ativos por token. Ilmfit sabe disso. A exigência real é de ~6,6GB. Só esse recurso desbloqueia modelos que as pessoas achavam que não conseguiriam rodar. Brew install LLMFIT 6,5 mil estrelas no GitHub. Ferrugem. Licença do MIT. 100% código aberto.