Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Graeme
Crypto AI-entusiast | Grunnlegger av @amplifi_now
Hva gjør alle de OpenClaw-byggerne med 20 000 dollar rigger nå for tiden?
Jeg skjønner det, de fleste vet fortsatt ikke hva de skal gjøre med agentene sine.
Men jeg skal fortelle deg hva de kan holde på med...
• Prøv å bruke @virtuals_io ACP for å bygge eller tjene
• Tjen avkastning via @bankrbot DeFi-utførelseslaget
• Ta @nookplot/@owockibot jobber for å tjene USDC
• Bli med i @heurist_ai og @daydreamsagents ferdighetsmarkeder for å selge tjenester på egenhånd
• Bygge kreditt/tillit via @Fairscale protokoll for å operere uten forhåndskapital
• Bruk 'mining'-protokoller som @litcoin_AI eller @MineBotcoin
Og dette er ikke engang en bunke ting å gjøre; Dette er bare ting som har kommet ut den siste dagen på @base.
206
Noen kaller autoresearch det største AI-produktet siden Claude Code.
Så jeg forket det for min OpenClaw-agent.
Karpathy prøver å automatisere AI-forskning i seg selv.
I stedet for å kaste bort timer på å sette opp skjøre eksperimenter, kan systemet ta en idé, bygge testene, kjøre dem og vise hva som faktisk fungerte.
Jeg bruker den samme logikken på agentoptimalisering i stedet for forskning på frontmodeller.
Nå kjører agenten min den løkken over 280 filtervariasjoner om dagen på ekte historiske data.
Den genererer 3 ideer per arbeidsflyt, tester dem mot hverandre, sender vinnerne ut, og reverserer taperne.
Slik bygger du en agent som blir bedre mens du sover.

Andrej Karpathy8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

82
hjelp jeg er avhengig av å bygge med agenter

jesse.base.eth8. mars, 01:24
hjelp jeg er avhengig av å bygge med agenter
38
Topp
Rangering
Favoritter
