Hipótese atual: Sim, os LLMs estão a perder um aspecto chave da inteligência semelhante à do cérebro (aprender com pequenas entradas e corrigir robustamente os seus erros, ou algo assim)… E usar LLMs para impulsionar o raciocínio em cadeia de pensamento é uma solução frágil… Mas soluções frágeis levarão à bootstrap do RSI.
6,36K