J'ai emballé le projet "autoresearch" dans un nouveau dépôt minimal autonome si des gens souhaitent jouer pendant le week-end. C'est essentiellement le cœur de l'entraînement LLM de nanochat réduit à une version à un seul GPU, un fichier de ~630 lignes de code, puis : - l'humain itère sur l'invite (.md) - l'agent IA itère sur le code d'entraînement (.py) L'objectif est de concevoir vos agents pour qu'ils réalisent les progrès de recherche les plus rapides indéfiniment et sans aucune de votre propre implication. Sur l'image, chaque point est un run complet d'entraînement LLM qui dure exactement 5 minutes. L'agent fonctionne dans une boucle autonome sur une branche de fonctionnalité git et accumule des commits git au script d'entraînement à mesure qu'il trouve de meilleurs réglages (avec une perte de validation plus faible à la fin) de l'architecture du réseau de neurones, de l'optimiseur, de tous les hyperparamètres, etc. Vous pouvez imaginer comparer les progrès de recherche de différentes invites, différents agents, etc. Partie code, partie science-fiction, et une pincée de psychose :)