esto parece realmente importante: es totalmente plausible que un modelo pudiera obtener IMO oro sin *ningún* aprendizaje por refuerzo, dado un prompt perfectamente elaborado. simplemente no lo sabemos, y carecemos de herramientas para buscar de manera eficiente a través del espacio de prompts. me alegra ver que al menos alguien está intentando.
Lakshya A Agrawal
Lakshya A Agrawal29 jul 2025
¿Cómo se compara la optimización de prompts con algoritmos de RL como GRPO? GRPO necesita miles de ejecuciones, pero los humanos pueden aprender de unos pocos ensayos, reflexionando sobre lo que funcionó y lo que no. Conoce a GEPA: un optimizador de prompts reflexivo que puede superar a GRPO en hasta un 20% con 35 veces menos ejecuciones!🧵
38,46K