Sta accadendo: ricerca autonoma di AI da parte di agenti AI su nanochat! 629 righe di codice per addestrare GPT-2. Un file markdown che definisce l'agenda di ricerca. Questo è tutto il laboratorio di ricerca. I ricercatori di AI potrebbero essere i primi a essere sostituiti dall'AI. L'esito più divertente è il più probabile.
Andrej Karpathy
Andrej Karpathy8 mar, 03:53
Ho impacchettato il progetto "autoresearch" in un nuovo repository minimale e autonomo se le persone vogliono provare durante il fine settimana. È fondamentalmente il nucleo di addestramento LLM di nanochat ridotto a una versione a singolo GPU, un file di circa 630 righe di codice, poi: - l'umano itera sul prompt (.md) - l'agente AI itera sul codice di addestramento (.py) L'obiettivo è ingegnerizzare i tuoi agenti per fare il progresso di ricerca più veloce indefinitamente e senza alcun tuo coinvolgimento. Nell'immagine, ogni punto è un'esecuzione completa di addestramento LLM che dura esattamente 5 minuti. L'agente lavora in un ciclo autonomo su un ramo di funzionalità git e accumula commit git allo script di addestramento mentre trova impostazioni migliori (con una perdita di validazione più bassa alla fine) dell'architettura della rete neurale, dell'ottimizzatore, di tutti gli iperparametri, ecc. Puoi immaginare di confrontare il progresso della ricerca di diversi prompt, diversi agenti, ecc. Parte codice, parte fantascienza e un pizzico di psicosi :)
Evochare GPT-5.4 xhigh e Claude Opus 4.6, dando loro 16 GPU, e lasciandoli fare ricerca autonoma in un sabato soleggiato è estremamente soddisfacente. Inoltre, è un buon modo per valutare quale modello sia il miglior ricercatore. Potrei pubblicare risultati interessanti domani.
100