Hipótesis actual: Sí, los LLMs están perdiendo un aspecto clave de la inteligencia similar a la del cerebro (aprender de pequeñas entradas y corregir robustamente sus errores, o algo así)... Y usar LLMs para potenciar el razonamiento en cadena de pensamientos es un truco frágil... Pero los trucos frágiles llevarán a la creación de RSI.
6,35K