Просто предчувствие AGI всего в одном прорыве нейропластичности Современные LLM — это статические аппроксиматоры функций Они применяют одну и ту же статическую матрицу весов на каждом проходе вперед. Никакой внутренней адаптации. Никакой саморегуляции Мозги не извлекают информацию, они изменяют синаптическую топологию, чтобы кодировать состояние во времени Когда модели начнут изменять веса во время вывода, когда модели перестанут действовать по принципу полного «Помни» при каждом вызове API, когда контекст будет формировать вычисления, а не просто проходить через них, люди будут называть это сознанием, окно Овертона испарится, и общество распадется. Есть ли лаборатории, работающие на этом фронте? Пластичность во время развертывания, а не обучения?
13,38K