Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matthew Berman
Alles auf KI setzen
Zukunft aufbauen
Ich werde mein OpenClaw kontinuierlich experimentieren lassen, um Anwendungsfälle zu finden, die für ein lokales Modell, das durch Autoresearch erstellt wurde, optimiert werden können.

Andrej Karpathy8. März, 03:53
Ich habe das Projekt "autoresearch" in ein neues, eigenständiges Minimal-Repo verpackt, falls die Leute am Wochenende damit spielen möchten. Es ist im Grunde der Kern des LLM-Trainings von nanochat, der auf eine Version mit einer GPU und einer Datei von ~630 Zeilen Code reduziert wurde, dann:
- der Mensch arbeitet am Prompt (.md)
- der KI-Agent arbeitet am Trainingscode (.py)
Das Ziel ist es, Ihre Agenten so zu konstruieren, dass sie unendlich schnell Fortschritte in der Forschung machen, ohne dass Sie selbst involviert sind. Auf dem Bild ist jeder Punkt ein vollständiger LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife auf einem Git-Feature-Branch und sammelt Git-Commits zum Trainingsskript, während er bessere Einstellungen (mit niedrigerem Validierungsverlust am Ende) der Architektur des neuronalen Netzwerks, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Prompts, verschiedener Agenten usw. zu vergleichen.
Teil Code, Teil Sci-Fi und eine Prise Psychose :)

26
Es lebt 😈

Matthew BermanVor 5 Stunden
Ich werde mein OpenClaw verwenden, um ein kleines Modell zu trainieren, das meine E-Mails als Ersatz für Opus 4.6 kennzeichnet. Mal sehen, wie es läuft.
3
Ich werde mein OpenClaw verwenden, um ein kleines Modell zu trainieren, das meine E-Mails als Ersatz für Opus 4.6 kennzeichnet. Mal sehen, wie es läuft.

Andrej Karpathy8. März, 03:53
Ich habe das Projekt "autoresearch" in ein neues, eigenständiges Minimal-Repo verpackt, falls die Leute am Wochenende damit spielen möchten. Es ist im Grunde der Kern des LLM-Trainings von nanochat, der auf eine Version mit einer GPU und einer Datei von ~630 Zeilen Code reduziert wurde, dann:
- der Mensch arbeitet am Prompt (.md)
- der KI-Agent arbeitet am Trainingscode (.py)
Das Ziel ist es, Ihre Agenten so zu konstruieren, dass sie unendlich schnell Fortschritte in der Forschung machen, ohne dass Sie selbst involviert sind. Auf dem Bild ist jeder Punkt ein vollständiger LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife auf einem Git-Feature-Branch und sammelt Git-Commits zum Trainingsskript, während er bessere Einstellungen (mit niedrigerem Validierungsverlust am Ende) der Architektur des neuronalen Netzwerks, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Prompts, verschiedener Agenten usw. zu vergleichen.
Teil Code, Teil Sci-Fi und eine Prise Psychose :)

23
Top
Ranking
Favoriten