Aktualna hipoteza: Tak, LLM-y brakuje kluczowego aspektu inteligencji przypominającej mózg (uczenie się na podstawie małych danych i solidne naprawianie swoich błędów, czy coś w tym stylu)… A używanie LLM-ów do zasilania rozumowania w łańcuchu myślowym to krucha sztuczka… Ale kruche sztuczki doprowadzą do bootstrapowania RSI.
6,34K