Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1991: primera destilación de redes neuronales [1-3]. Lo llamé "colapso", en ese entonces, no "destilación".
Referencias
[1] J. Schmidhuber (1991). Fragmentos de secuencias neuronales. Informe Técnico FKI-148-91, Universidad Tecnológica de Múnich. Artículo 3.2.2. y la Sec. 4 tratan sobre "colapsar" o "destilar" o "comprimir" el conocimiento de una red neuronal en otra red neuronal.
[2] JS (1992). Aprendizaje de secuencias complejas y extendidas utilizando el principio de compresión de la historia. Computación neuronal, 4(2):234-242, 1992. Basado en [1].
[3] JS (AI Blog, 2021, actualizado en 2025). 1991: Primer aprendizaje muy profundo con pre-entrenamiento no supervisado. Primera destilación de redes neuronales.

16.1K
Populares
Ranking
Favoritas