Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acabo de leer este artículo de investigación de Google que me rompió completamente la cabeza 😳
Así que estos investigadores tomaron modelos de lenguaje normales - los mismos que todos dicen "no pueden pensar realmente" - y probaron algo muy simple. En lugar de pedir respuestas rápidas, simplemente dijeron "oye, muéstrame cómo trabajas en esto paso a paso."
Eso es todo. Sin entrenamiento sofisticado. Sin algoritmos especiales. Solo mejores indicaciones.
¿Los resultados? Absolutamente locos.
¿Problemas matemáticos que desconcertaban a estos modelos? De repente los están resolviendo de izquierda a derecha. Estamos hablando de una precisión del 18% que sube al 57% en el mismo modelo exacto. El mismo cerebro, diferente conversación.
Pero aquí es donde se pone raro. Esto solo funcionó en los modelos realmente grandes. ¿Los más pequeños? En realidad, empeoraron. Comenzaron a divagar tonterías que sonaban inteligentes pero no tenían sentido.
Sin embargo, algo mágico sucede alrededor de 100 mil millones de parámetros. El modelo simplemente... comienza a pensar. Como, cadenas de razonamiento lógico reales que puedes seguir. Nadie le enseñó esto. Simplemente emergió.
He estado usando ChatGPT y Claude completamente mal todo este tiempo. En lugar de querer respuestas instantáneas, debería haber estado pidiendo "guíame a través de esto."
Lo probaron en todo. Matemáticas, preguntas de sentido común, acertijos lógicos. El mismo patrón en todas partes. Los modelos siempre fueron capaces de estas cosas - simplemente nunca supimos cómo preguntar.
Me hace preguntarme qué más pueden hacer estos sistemas que aún no hemos descubierto. Como, si el razonamiento simplemente aparece cuando escalas las cosas y preguntas de manera diferente, ¿qué pasa cuando alguien descubre la manera correcta de solicitar creatividad? ¿O planificación? ¿O resolver problemas realmente difíciles?
La parte más loca es que los modelos ni siquiera necesitan ser reentrenados. Ya tienen esta habilidad esperando a que alguien la desbloquee con la conversación correcta.
Hemos estado teniendo las conversaciones equivocadas con la IA todo este tiempo.

Parte superior
Clasificación
Favoritos