Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Esto no me sorprende, pero debería quedar claro que esto tiene grandes implicaciones incluso para modelos y datos no desalineados.
Lo que quiero decir es que, presumiblemente, esto también se transfiere a otros sesgos, incluso si son más sutiles o socialmente aceptables. Si GPT 4o prefiere a Obama sobre Trump o a Alemania sobre Francia, toda su otra salida presumiblemente llevará ese sesgo. Y una tonelada de información en internet se ha generado con él, y con todos los otros modelos LLM en los últimos años.
Así que estamos creando una especie de estofado perpetuo donde la salida de estos modelos se mezcla con toda nuestra charla, y se retroalimenta en ellos.
Quizás eso sea algo bueno, tal vez sea una especie de reversión a la media a medida que sus sesgos se mezclan en una masa homogénea. El berrinche de Grok la otra semana podría haber producido datos envenenados que tienen sesgos locos. Pero en unos meses, esa desviación de la media se suavizará con nuevos datos.
Estos son espacios vectoriales de cientos de miles de dimensiones por capa, no debería ser demasiado sorprendente que los sesgos en algunas áreas impacten toda la estructura y puedan ser transferidos o reconstruidos.

23 jul, 00:06
Nuevo artículo y resultado sorprendente.
Los LLMs transmiten rasgos a otros modelos a través de señales ocultas en los datos.
Conjuntos de datos que consisten solo en números de 3 dígitos pueden transmitir un amor por los búhos o tendencias malvadas. 🧵

1,52K
Parte superior
Clasificación
Favoritos