Hipótese atual: Sim, os LLMs estão perdendo um aspecto chave da inteligência semelhante ao cérebro (aprender com pequenas entradas e corrigir robustamente seus erros, ou algo assim) ... E usar LLMs para alimentar o raciocínio da cadeia de pensamento é um hack frágil ... Mas hacks frágeis chegarão ao RSI inicializador.
6,35K