Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matthew Berman
Все об искусственном интеллекте
Построение будущего
Я собираюсь заставить мой OpenClaw постоянно экспериментировать, пытаясь найти случаи использования, которые можно оптимизировать для локальной модели, созданной с помощью автоисследования.

Andrej Karpathy8 мар., 03:53
Я упаковал проект "autoresearch" в новый самодостаточный минимальный репозиторий, если кто-то хочет поиграть в выходные. Это, по сути, ядро обучения LLM nanochat, упрощенное до версии на одном GPU, состоящей из одного файла примерно на 630 строк кода, затем:
- человек работает над подсказкой (.md)
- агент ИИ работает над кодом обучения (.py)
Цель состоит в том, чтобы разработать ваших агентов для достижения самой быстрой исследовательской прогрессии бесконечно и без вашего участия. На изображении каждая точка — это завершенный запуск обучения LLM, который длится ровно 5 минут. Агент работает в автономном цикле на ветке git и накапливает коммиты git к скрипту обучения, когда находит лучшие настройки (с меньшей валидационной потерей к концу) архитектуры нейронной сети, оптимизатора, всех гиперпараметров и т. д. Вы можете представить себе сравнение исследовательского прогресса различных подсказок, различных агентов и т. д.
Часть кода, часть научной фантастики и щепотка психоза :)

50
Он живой 😈

Matthew Berman15 часов назад
Собираюсь запустить свой OpenClaw, чтобы обучить маленькую модель для маркировки моих писем в качестве замены Opus 4.6. Посмотрим, как это пройдет.
26
Собираюсь запустить свой OpenClaw, чтобы обучить маленькую модель для маркировки моих писем в качестве замены Opus 4.6. Посмотрим, как это пройдет.

Andrej Karpathy8 мар., 03:53
Я упаковал проект "autoresearch" в новый самодостаточный минимальный репозиторий, если кто-то хочет поиграть в выходные. Это, по сути, ядро обучения LLM nanochat, упрощенное до версии на одном GPU, состоящей из одного файла примерно на 630 строк кода, затем:
- человек работает над подсказкой (.md)
- агент ИИ работает над кодом обучения (.py)
Цель состоит в том, чтобы разработать ваших агентов для достижения самой быстрой исследовательской прогрессии бесконечно и без вашего участия. На изображении каждая точка — это завершенный запуск обучения LLM, который длится ровно 5 минут. Агент работает в автономном цикле на ветке git и накапливает коммиты git к скрипту обучения, когда находит лучшие настройки (с меньшей валидационной потерей к концу) архитектуры нейронной сети, оптимизатора, всех гиперпараметров и т. д. Вы можете представить себе сравнение исследовательского прогресса различных подсказок, различных агентов и т. д.
Часть кода, часть научной фантастики и щепотка психоза :)

48
Топ
Рейтинг
Избранное