Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

zeugh (gov security arc)
Las organizaciones resilientes son más frías @anticapture | Jefe de Investigación de Larping @blockful_io
Acabo de leer este documento de gobernanza de Elinor Ostrom llamado y creo que todo mi modelo mental de coordinación simplemente explotó 🤯
Durante décadas nos han dicho que la Tragedia de los Comunes es inevitable a menos que se privatice todo o se deje que una autoridad central lo microgestione. Ostrom básicamente entra y dice: "¿Qué pasaría si... ¿Ninguno?" Luego muestra comunidades reales que superan la tragedia sin Big State o Big Market, utilizando un puñado de reglas extrañamente universales.
Aquí está la parte que se siente absolutamente desquiciada (en el mejor sentido): las soluciones no son iguales para todos. Son locales, sintonizables y policéntricos: múltiples centros de toma de decisiones que se superponen como una red viva. Los límites son claros. Las reglas se ajustan a las condiciones locales. La gente en realidad co-crea esas reglas. Hay monitoreo, sanciones graduales, resolución de conflictos barata, espacio legal para autoorganizarse y capas anidadas para que todo se amplíe. Se lee menos como una política pública y más como una pila de protocolos para el autogobierno.
Los resultados en bosques, pesquerías, sistemas de riego, tremendamente robustos. No marginalmente mejor. Sistemáticamente mejor que la historia de "solo mercado o solo estado" en la que nos hemos quedado atrapados. Y aquí está el truco: debido a que es policéntrico, es antifrágil: la red aprende y se adapta en lugar de esperar a que un solo centro se dé cuenta y lo arregle todo.
Ahora aleja. Si estos principios de diseño son el TCP/IP de la acción colectiva, ¿qué sucede cuando los codificamos: los límites de identidad como resistencia a la sibila, el monitoreo como telemetría en cadena, las sanciones graduales como niveles de reducción, la resolución de conflictos como arbitraje rápido, el anidamiento como subDAO y federaciones? ¿Simplemente tenemos mejores cooperativas... ¿O desbloqueamos instituciones resistentes a la captura a escala de Internet?
Parece que hemos estado forzando el gobierno a ser monolítico, ya sea Leviatán o laissez-faire. Este artículo pregunta: ¿y si esa es la ontología equivocada por completo? En 8 años podríamos no estar discutiendo "estado vs mercado" o "CEOs vs tokenómica". Discutiremos qué principio de Ostrom afinar y cuánto. Esto no se siente como un ajuste incremental. Se siente como el comienzo de algo enorme.


Ihtesham Haider14 sept, 21:09
Acabo de leer este trabajo de investigación de Google que me rompió el cerebro 😳 por completo
Así que estos investigadores tomaron modelos de lenguaje regulares, los mismos que todos dicen que "realmente no pueden pensar", y probaron algo muy simple. En lugar de pedir respuestas rápidas, simplemente dijeron "oye, muéstrame cómo trabajas en esto paso a paso".
Eso es todo. Sin entrenamiento sofisticado. Sin algoritmos especiales. Solo mejores indicaciones.
¿Los resultados? Absolutamente loco.
¿Problemas matemáticos que dejaron perplejos a estos modelos? De repente, los están resolviendo a diestra y siniestra. Estamos hablando de un 18% de precisión disparando hasta un 57% en el mismo modelo exacto. Mismo cerebro, diferente conversación.
Pero aquí es donde se pone raro. Esto solo funcionó en los modelos realmente grandes. ¿Los más pequeños? De hecho, empeoraron. Comencé a divagar tonterías que sonaban inteligentes pero no tenían sentido.
Sin embargo, sucede algo mágico alrededor de 100 mil millones de parámetros. El modelo simplemente... comienza a pensar. Como, cadenas de razonamiento lógico reales que puedes seguir. Nadie le enseñó esto. Simplemente surgió.
He estado usando ChatGPT y Claude completamente mal todo este tiempo. En lugar de querer respuestas instantáneas, debería haber estado preguntando "guíame a través de esto".
Probaron esto en todo. Matemáticas, preguntas de sentido común, acertijos lógicos. El mismo patrón en todas partes. Los modelos siempre fueron capaces de estas cosas, simplemente nunca supimos cómo preguntar.
Me hace preguntarme qué más pueden hacer estos sistemas que aún no hemos descubierto. Por ejemplo, si el razonamiento simplemente aparece cuando escalas las cosas y preguntas de manera diferente, ¿qué sucede cuando alguien descubre la forma correcta de impulsar la creatividad? ¿O planificación? ¿O resolver problemas realmente difíciles?
La parte más loca es que los modelos ni siquiera necesitan ser reentrenados. Ya tienen esta habilidad sentados allí, esperando que alguien la desbloquee con la conversación correcta.
Hemos tenido conversaciones equivocadas con la IA todo este tiempo.

706
Esto y lanzar un token... Jesse va a intentar comerse su pastel

Jack15 sept, 22:34
ÚLTIMA HORA: Jesse Pollak anuncia que Base está lanzando un nuevo puente entre Base y Solana
"El objetivo de este puente es hacer que pueda construir sin problemas tanto en Base como en Solana con tokens SOL, ERC-20 y SPL"
Te permite hacer 3 cosas
- Deposite y use SOL en cualquier aplicación Base
- Importa cualquier token de Solana a tu aplicación Base
- Podrás tomar los tokens Base que hayas creado y exportarlos a Solana
562
Populares
Ranking
Favoritas