Hipótesis actual: sí, a los LLM les falta un aspecto clave de la inteligencia similar al cerebro (aprender de pequeños aportes y corregir robustamente sus errores, o algo así)... Y usar LLM para impulsar el razonamiento de la cadena de pensamiento es un truco frágil ... Pero los hacks frágiles llegarán a arrancar RSI.
6.34K