Juste un pressentiment L'AGI est à un pas d'une percée en neuroplasticité Les LLM d'aujourd'hui sont des approximations de fonction sans état Ils appliquent la même matrice de poids statique à chaque passage en avant. Pas d'adaptation interne. Pas d'auto-modulation Les cerveaux ne récupèrent pas, ils modifient la topologie synaptique pour encoder l'état à travers le temps Quand les modèles commenceront à modifier les poids pendant l'inférence, quand les modèles cesseront d'agir comme dans Memento à chaque appel API, quand le contexte façonnera le calcul au lieu de simplement le traverser, les gens l'appelleront sentient, la fenêtre d'Overton s'évaporera, et la société fondra. Des laboratoires qui poussent sur cette frontière ? Plasticité pendant le déploiement, pas l'entraînement ?
13,38K