Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Seth Ginns
Socio Director @coinfund_io. ex inversionista de acciones en Jennison Associates; EII en Credit Suisse
Opiniones personales. No es un consejo de inversión
Convergencia acelerando
@HyperliquidX DAT anunció esta mañana liderado por Atlas Merchant Capital (Bob Diamond ex CEO de Barclays) con la participación de D1 Capital (Dan Sundheim ex CIO de Viking). Se espera que el ex presidente de la Fed de Boston, Eric Rosengren, se una a la junta.

Seth Ginns13 jul, 19:19
Sí, las empresas de tesorería deberían cotizar a una prima sobre el NAV
¿Qué?
🧵
10,42K
Seth Ginns republicó
$IBIT es ahora el 3er ETF que más ingresos genera para BlackRock de 1,197 fondos, y está a solo $9 mil millones de ser el #1. Solo otra estadística increíble para un ETF de 1.5 años (literalmente un infante). Aquí está la lista de los 10 mejores para BLK (por cierto, ¿qué tal el olvidable $IWF en el primer lugar, quién lo sabía?)

107,99K
Seth Ginns republicó
Las stablecoins cambiarán drásticamente la forma en que las instituciones financieras abordan las criptomonedas, y el Jefe de Inversiones Líquidas de CoinFund, @sethginns, se unió recientemente a @thebenkeadyshow para hablar sobre su convicción en su creciente número de casos de uso ⬇️

845
Vota sobre el proyecto de ley de stablecoins del Senado hoy a las 4:30 p.m. ET

Senate Cloakroom17 jun 2025
A las 4:30 p.m., se espera que el Senado proceda a dos votaciones por llamada nominal sobre lo siguiente:
1. (Si se invoca el cierre) Confirmación del Calendario Ejecutivo #98 Olivia Trusty como Miembro de la Comisión Federal de Comunicaciones por el resto del mandato que expira el 30 de junio de 2025.
2. Aprobación del Cal. #66, S.1582, Ley GENIUS, enmendada.
764
Seth Ginns republicó
Los rendimientos en cadena siguen siendo inalcanzables para la mayoría de las personas. A pesar de ser sin permisos, su complejidad desanima a muchos a participar.
A través de nuestra estrecha colaboración con @Veda_labs, estas complejidades en Plasma se abstraerán para llevar un rendimiento sostenible a las masas.
33,71K
Seth Ginns republicó
Predicciones rápidas.
2025: Modelo de más de 100B parámetros entrenado en d-redes.
2026: Primer modelo *multi-modal* de más de 50B entrenado en GPUs de voluntarios.
2027-8: Todo lo demás igual, modelo denso competitivo GPT-3 de 175B reproducido.
2030+: Una verdadera ejecución descentralizada "fronteriza", más de 1T de parámetros.
3,66K
Seth Ginns republicó
Pensamientos/predicciones sobre el entrenamiento de IA descentralizada, 2025.
1. Una cosa que hay que decir es que definitivamente estamos en un mundo diferente con el entrenamiento de IA descentralizada que hace 18 meses. En ese entonces, el entrenamiento descentralizado era imposible y ahora está en el mercado y es un campo.
2. No se equivoquen, el objetivo final del d-training es entrenar modelos competitivos y de vanguardia en redes descentralizadas. Como tal, estamos apenas al inicio de nuestro viaje competitivo, pero nos estamos moviendo rápido.
3. Ahora hay consenso en que podemos pre-entrenar y post-entrenar modelos de varios miles de millones de parámetros (principalmente LLMs, principalmente arquitecturas de transformadores) en redes descentralizadas. El estado actual del arte es de hasta ~100B, el extremo superior de lo cual está a la vista pero no se ha mostrado.
4. Ahora hay consenso en que podemos entrenar modelos de <10B parámetros en redes descentralizadas de manera bastante factible. También ha habido estudios de caso específicos (principalmente de @gensynai @PrimeIntellect @NousResearch) donde se han entrenado o se están entrenando modelos de 10B, 32B, 40B parámetros. El enjambre de post-entrenamiento de @gensynai opera en modelos de hasta 72B parámetros.
5. La innovación de @PluralisHQ ha invalidado ahora la "imposibilidad" del pre-entrenamiento escalable en redes descentralizadas al eliminar el cuello de botella de la ineficiencia de comunicación. Sin embargo, los FLOPs brutos, la fiabilidad y la verificabilidad siguen siendo cuellos de botella para estos tipos de redes: problemas que son muy solucionables pero que llevarán tiempo resolver técnicamente. Con el Aprendizaje de Protocolo de Pluralis tal como está, creo que llegamos a modelos de ~100B en un plazo de 6-12 meses.
6. ¿Cómo pasamos de modelos de 100B a 300B parámetros? Creo que necesitamos encontrar formas de fragmentar parámetros de manera efectiva y fluida y mantener la memoria de los dispositivos individuales relativamente baja (por ejemplo, <32GB de memoria por dispositivo). Creo que necesitamos llegar a 20 EFlops en una red; eso significa algo así como 10-20K dispositivos de consumo funcionando durante 4-6 semanas en un entrenamiento.
En general, el d-training está preparado para ser un espacio muy emocionante. Algunas de sus innovaciones ya están siendo consideradas para aplicaciones amplias de IA.
4,14K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado