Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Abbiamo appena fornito 10 GPU per eseguire la ricerca automatica di @karpathy:
Siamo in un'era in cui agenti specifici di nicchia possono diventare hyper trainer, hyper accurati attraverso un loop infinito di sperimentazione.
Se sei interessato a costruire con autoresearch, contattaci in privato, ti daremo $100 di crediti GPU Cloud.
Ecco solo alcune narrazioni di agenti che ora possono migliorare di 100 volte in qualità:
+ simulazioni di agenti: gestire interi governi, aziende ed entità di ogni tipo
+ agenti a obiettivo singolo: dire a un agente che la sua unica missione è risolvere un obiettivo singolo, un problema socio-economico; vedere quali sono i suoi risultati
+ bot mev che ricerca la propria strategia mentre dormi
+ scanner di lancio token che impara cosa fa salire e cosa no
+ vault lp che trova autonomamente intervalli ottimali su uni v4 & meteora
+ agente di rendimento che scopre percorsi attraverso 50 protocolli defi
Questo tweet segna una nuova era; supporteremo i talenti disposti a unirsi a questa era.

8 mar, 03:53
Ho impacchettato il progetto "autoresearch" in un nuovo repository minimale e autonomo se le persone vogliono provare durante il fine settimana. È fondamentalmente il nucleo di addestramento LLM di nanochat ridotto a una versione a singolo GPU, un file di circa 630 righe di codice, poi:
- l'umano itera sul prompt (.md)
- l'agente AI itera sul codice di addestramento (.py)
L'obiettivo è ingegnerizzare i tuoi agenti per fare il progresso di ricerca più veloce indefinitamente e senza alcun tuo coinvolgimento. Nell'immagine, ogni punto è un'esecuzione completa di addestramento LLM che dura esattamente 5 minuti. L'agente lavora in un ciclo autonomo su un ramo di funzionalità git e accumula commit git allo script di addestramento mentre trova impostazioni migliori (con una perdita di validazione più bassa alla fine) dell'architettura della rete neurale, dell'ottimizzatore, di tutti gli iperparametri, ecc. Puoi immaginare di confrontare il progresso della ricerca di diversi prompt, diversi agenti, ecc.
Parte codice, parte fantascienza e un pizzico di psicosi :)

. @BNNBags karpathy x Bags x invisibile.
921
Principali
Ranking
Preferiti
