Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acabamos de provisionar 10 GPUs para ejecutar la auto-investigación de @karpathy:
Estamos en una era donde los agentes específicos de nicho pueden convertirse en entrenadores hiper, hiper precisos a través de un bucle infinito de experimentación.
Si estás interesado en construir con autoresearch, envíanos un DM, te proporcionaremos $100 en créditos de GPU en la nube.
Aquí hay solo algunas narrativas de agentes que ahora pueden mejorar 100x en calidad:
+ simulaciones de agentes: ejecuta gobiernos, empresas y entidades de todo tipo
+ agentes de objetivo único: dile a un agente que su única misión es resolver un único objetivo, un problema socioeconómico; observa cuáles son sus resultados
+ bot de mev que investiga su propia estrategia mientras duermes
+ escáner de lanzamiento de tokens que aprende qué impulsa y qué no
+ bóveda de lp que encuentra de forma autónoma rangos óptimos en uni v4 y meteora
+ agente de rendimiento que descubre rutas a través de 50 protocolos defi
Este tweet significa una nueva era; respaldaremos el talento que esté dispuesto a unirse a esta era.

8 mar, 03:53
He empaquetado el proyecto "autoresearch" en un nuevo repositorio mínimo y autónomo si la gente quiere jugar durante el fin de semana. Básicamente es el núcleo de entrenamiento de nanochat LLM reducido a una versión de un solo GPU, un archivo de ~630 líneas de código, luego:
- el humano itera sobre el prompt (.md)
- el agente de IA itera sobre el código de entrenamiento (.py)
El objetivo es diseñar tus agentes para que hagan el progreso de investigación más rápido indefinidamente y sin ninguna de tu propia participación. En la imagen, cada punto es una ejecución completa de entrenamiento de LLM que dura exactamente 5 minutos. El agente trabaja en un bucle autónomo en una rama de características de git y acumula commits de git al script de entrenamiento a medida que encuentra mejores configuraciones (de menor pérdida de validación al final) de la arquitectura de la red neuronal, el optimizador, todos los hiperparámetros, etc. Puedes imaginar comparar el progreso de investigación de diferentes prompts, diferentes agentes, etc.
Parte código, parte ciencia ficción, y un toque de psicosis :)

. @BNNBags karpathy x Bags x invisible.
935
Parte superior
Clasificación
Favoritos
