Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matthew Berman
Postaw na sztuczną inteligencję
Budowanie przyszłości
Zamierzam, aby mój OpenClaw nieprzerwanie eksperymentował w poszukiwaniu przypadków użycia, które można zoptymalizować dla lokalnego modelu stworzonego przez autoresearch.

Andrej Karpathy8 mar, 03:53
Spakowałem projekt "autoresearch" do nowego, samodzielnego minimalnego repozytorium, jeśli ktoś chciałby się pobawić w weekend. To w zasadzie rdzeń treningowy nanochat LLM, uproszczony do wersji na jeden GPU, w jednym pliku o długości ~630 linii kodu, a następnie:
- człowiek iteruje nad promptem (.md)
- agent AI iteruje nad kodem treningowym (.py)
Celem jest zaprojektowanie swoich agentów, aby osiągały najszybszy postęp w badaniach w nieskończoność, bez jakiegokolwiek twojego zaangażowania. Na obrazku każda kropka to pełne uruchomienie treningu LLM, które trwa dokładnie 5 minut. Agent działa w autonomicznej pętli na gałęzi funkcji git i gromadzi commity git do skryptu treningowego, gdy znajduje lepsze ustawienia (o niższej stracie walidacyjnej na końcu) architektury sieci neuronowej, optymalizatora, wszystkich hiperparametrów itd. Możesz sobie wyobrazić porównywanie postępu badań różnych promptów, różnych agentów itd.
Część kodu, część sci-fi i szczypta psychozy :)

49
To żyje 😈

Matthew Berman15 godz. temu
Zamierzam uruchomić mój OpenClaw, aby wytrenować mały model do etykietowania moich e-maili jako zamiennik dla Opus 4.6, który to robi. Zobaczymy, jak to pójdzie.
25
Zamierzam uruchomić mój OpenClaw, aby wytrenować mały model do etykietowania moich e-maili jako zamiennik dla Opus 4.6, który to robi. Zobaczymy, jak to pójdzie.

Andrej Karpathy8 mar, 03:53
Spakowałem projekt "autoresearch" do nowego, samodzielnego minimalnego repozytorium, jeśli ktoś chciałby się pobawić w weekend. To w zasadzie rdzeń treningowy nanochat LLM, uproszczony do wersji na jeden GPU, w jednym pliku o długości ~630 linii kodu, a następnie:
- człowiek iteruje nad promptem (.md)
- agent AI iteruje nad kodem treningowym (.py)
Celem jest zaprojektowanie swoich agentów, aby osiągały najszybszy postęp w badaniach w nieskończoność, bez jakiegokolwiek twojego zaangażowania. Na obrazku każda kropka to pełne uruchomienie treningu LLM, które trwa dokładnie 5 minut. Agent działa w autonomicznej pętli na gałęzi funkcji git i gromadzi commity git do skryptu treningowego, gdy znajduje lepsze ustawienia (o niższej stracie walidacyjnej na końcu) architektury sieci neuronowej, optymalizatora, wszystkich hiperparametrów itd. Możesz sobie wyobrazić porównywanie postępu badań różnych promptów, różnych agentów itd.
Część kodu, część sci-fi i szczypta psychozy :)

47
Najlepsze
Ranking
Ulubione