Jen tušení AGI je jeden průlom neuroplasticity daleko Dnešní LLM jsou aproximátory bezstavových funkcí Při každém dopředném průchodu aplikují stejnou statickou matici vah. Žádná interní adaptace. Žádná samomodulace Mozky se nenačítají, ale mění synaptickou topologii tak, aby kódovala stav v průběhu času Když modely začnou upravovat váhy během inference, když modely přestanou přecházet do plného Mementa při každém volání API, když kontext tvaruje výpočty místo toho, aby jím jen protékal, lidé ji budou nazývat vnímavou, Overtonovo okno se vypaří, a společnost se roztaje. Nějaké laboratoře, které se pohybují na této hranici? Plasticita během nasazení, ne trénink?
13,37K