Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
He empaquetado el proyecto "autoresearch" en un nuevo repositorio mínimo y autónomo si la gente quiere jugar durante el fin de semana. Básicamente es el núcleo de entrenamiento de nanochat LLM reducido a una versión de un solo GPU, un archivo de ~630 líneas de código, luego:
- el humano itera sobre el prompt (.md)
- el agente de IA itera sobre el código de entrenamiento (.py)
El objetivo es diseñar tus agentes para que hagan el progreso de investigación más rápido indefinidamente y sin ninguna de tu propia participación. En la imagen, cada punto es una ejecución completa de entrenamiento de LLM que dura exactamente 5 minutos. El agente trabaja en un bucle autónomo en una rama de características de git y acumula commits de git al script de entrenamiento a medida que encuentra mejores configuraciones (de menor pérdida de validación al final) de la arquitectura de la red neuronal, el optimizador, todos los hiperparámetros, etc. Puedes imaginar comparar el progreso de investigación de diferentes prompts, diferentes agentes, etc.
Parte código, parte ciencia ficción, y un toque de psicosis :)

Parte superior
Clasificación
Favoritos
