Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Arrêtez de deviner quel modèle d'IA votre ordinateur peut réellement exécuter.
Cet outil analyse votre matériel et vous dit exactement quels LLM fonctionneront. Une seule commande.
Il s'appelle llmfit.
497 modèles. 133 fournisseurs. Il vérifie votre RAM, CPU et GPU, puis classe chaque modèle selon ce qui convient.
Fini de télécharger un modèle de 70B juste pour le voir planter.
Voici ce qu'il fait :
→ Détecte votre matériel exact (NVIDIA, AMD, Intel Arc, Apple Silicon)
→ Choisit la meilleure quantification qui correspond à votre mémoire
→ Évalue chaque modèle en fonction de la qualité, de la vitesse, de l'adéquation et de la longueur du contexte
→ Gère automatiquement les configurations multi-GPU et les architectures MoE
→ Se connecte à Ollama pour que vous puissiez télécharger le meilleur match instantanément
Voici la partie la plus folle :
Mixtral 8x7B a 46,7B de paramètres au total. La plupart des outils pensent que vous avez besoin de 24 Go de VRAM. Mais seulement 12,9B de paramètres sont actifs par token. llmfit le sait. Il évalue le besoin réel à ~6,6 Go.
Cette seule fonctionnalité débloque des modèles que les gens pensaient ne pas pouvoir exécuter.
brew install llmfit
6,5K étoiles sur GitHub. Construit en Rust. Licence MIT.
100% Open Source.

Meilleurs
Classement
Favoris
