Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Shane Gu
Géminis - RL, CoT, multilingüismo. Personal superior RS @GoogleDeepMind MTV. 🇯🇵 -nacido 🇨🇳🇨🇦 . ej: @OpenAI (JP: @shanegJP)
Shane Gu republicó
🚨 Matemáticas de la Olimpiada + IA:
Ejecutamos Gemini 2.5 Pro de Google en los nuevos problemas del IMO 2025. Con un cuidadoso diseño de indicaciones y pipeline, resolvió 5 de 6 — ¡notable para tareas que exigen una profunda comprensión y creatividad!
¡El modelo podría ganar oro! 🥇
#IA #Matemáticas #LLMs #IMO2025
218,91K
Asiáticos: arreglaremos nuestro propio lío

Patrick Shen18 jul, 03:03
En su lanzamiento, Cluely afirmó que acabaría con 9 industrias.
Estamos aquí para acabar con solo una: el engaño.
Conoce a Truely: la herramienta de código abierto que señala entrevistas asistidas por IA en tiempo real. Funciona con Zoom, Meets, Teams y más.
El futuro de las entrevistas en línea ya está aquí.
2,02K
Para luchar contra los asiáticos, necesitas asiáticos.

Patrick Shen18 jul, 03:03
En su lanzamiento, Cluely afirmó que acabaría con 9 industrias.
Estamos aquí para acabar con solo una: el engaño.
Conoce a Truely: la herramienta de código abierto que señala entrevistas asistidas por IA en tiempo real. Funciona con Zoom, Meets, Teams y más.
El futuro de las entrevistas en línea ya está aquí.
249
Por qué los equipos de preentrenamiento y postentrenamiento necesitan llevarse bien

David Mizrahi18 jul, 06:21
Emocionado de compartir nuestro nuevo trabajo: “Los Modelos de Lenguaje Mejoran Cuando los Datos de Preentrenamiento Coinciden con las Tareas Objetivo”
Sí, suena obvio (¡y lo es!), pero típicamente esto solo sucede de manera implícita e indirecta: seleccionar datos de manera intuitiva → referencia → refinar → repetir.
Nos preguntamos: ¿qué pasa si emparejamos explícitamente los datos de preentrenamiento con las referencias? El resultado es un enfoque muy simple que ofrece multiplicadores de computación de 2x+ sobre bases sólidas y nos proporciona una forma fundamentada de estudiar cómo las elecciones de referencia moldean (¡y restringen!) las capacidades del modelo.
Bonus: leyes de escalado extensas de entrenar más de 500 modelos que revelan cómo la selección óptima de datos evoluciona a medida que los modelos escalan.
🧵 (1/14)

2,7K
El equipo de Grok está internalizando las operaciones de datos humanos (por ejemplo, reclutando para el rol de tutor de IA para japonés). Es probable que más laboratorios de frontera piensen en poseer y operar la mano de obra de datos.

Koki Ikeda | SoftBank15 jul, 22:12
"xAI," que está desarrollando Grok, está buscando un Tutor de IA japonés.
El trabajo implica etiquetar y anotar texto, audio y datos de video en japonés. Puedes trabajar completamente de forma remota desde Japón, y el pago es a una alta tarifa por hora equivalente a los estándares estadounidenses.
🗣️ Hablante nativo de japonés
🧑💻 Totalmente remoto
💰 Tarifa por hora de $35–65 (5200-9600 yenes)
🕐 Contrato de 6 meses (con posibilidad de extensión)

8,38K
El equipo de Grok está internalizando las operaciones de datos humanos (por ejemplo, reclutando para el rol de tutor de IA para japonés). Dada la transición de Scale AI, es probable que más laboratorios de frontera piensen en poseer y operar la mano de obra de datos.

Koki Ikeda | SoftBank15 jul, 22:12
"xAI," que está desarrollando Grok, está buscando un Tutor de IA japonés.
El trabajo implica etiquetar y anotar texto, audio y datos de video en japonés. Puedes trabajar completamente de forma remota desde Japón, y el pago es a una alta tarifa por hora equivalente a los estándares estadounidenses.
🗣️ Hablante nativo de japonés
🧑💻 Totalmente remoto
💰 Tarifa por hora de $35–65 (5200-9600 yenes)
🕐 Contrato de 6 meses (con posibilidad de extensión)

343
¡Si estás en ICML e interesado en RL o en multilingüismo, por favor saluda a @marafinkels! Hemos trabajado estrechamente en los últimos meses para desarrollar un método de RL que solucione un problema crítico de calidad de Gemini. ¡Ella también tiene grandes ideas de investigación! Espero que Gemini y la academia se mantengan en contacto.

Mara Finkelstein27 nov 2024
Los LLMs se evalúan típicamente con métricas automáticas en conjuntos de pruebas estándar, pero las métricas y los conjuntos de pruebas se desarrollan de manera independiente. Esto plantea una pregunta crucial: ¿Podemos diseñar métricas automáticas específicamente para sobresalir en los conjuntos de pruebas que priorizamos? Respuesta: ¡Sí!

5,77K
Shane Gu republicó
Nueva entrada de blog sobre la asimetría de la verificación y la "ley del verificador":
La asimetría de la verificación, la idea de que algunas tareas son mucho más fáciles de verificar que de resolver, se está convirtiendo en una idea importante a medida que tenemos RL que finalmente funciona de manera general.
Grandes ejemplos de asimetría de la verificación son cosas como los rompecabezas de sudoku, escribir el código para un sitio web como Instagram y los problemas de BrowseComp (se necesitan ~100 sitios web para encontrar la respuesta, pero es fácil verificar una vez que tienes la respuesta).
Otras tareas tienen una casi simetría de verificación, como sumar dos números de 900 dígitos o algunos scripts de procesamiento de datos. Sin embargo, otras tareas son mucho más fáciles de proponer soluciones viables que de verificarlas (por ejemplo, verificar un ensayo largo o declarar una nueva dieta como "solo comer bisonte").
Una cosa importante a entender sobre la asimetría de la verificación es que puedes mejorar la asimetría haciendo un trabajo previo. Por ejemplo, si tienes la clave de respuestas a un problema matemático o si tienes casos de prueba para un problema de Leetcode. Esto aumenta enormemente el conjunto de problemas con una asimetría de verificación deseable.
La "ley del verificador" establece que la facilidad de entrenar a la IA para resolver una tarea es proporcional a cuán verificable es la tarea. Todas las tareas que son posibles de resolver y fáciles de verificar serán resueltas por la IA. La capacidad de entrenar a la IA para resolver una tarea es proporcional a si la tarea tiene las siguientes propiedades:
1. Verdad objetiva: todos están de acuerdo en cuáles son las buenas soluciones
2. Rápido de verificar: cualquier solución dada puede ser verificada en unos pocos segundos
3. Escalable para verificar: muchas soluciones pueden ser verificadas simultáneamente
4. Bajo ruido: la verificación está tan correlacionada con la calidad de la solución como sea posible
5. Recompensa continua: es fácil clasificar la bondad de muchas soluciones para un solo problema
Una manifestación obvia de la ley del verificador es el hecho de que la mayoría de los benchmarks propuestos en IA son fáciles de verificar y hasta ahora han sido resueltos. Observa que prácticamente todos los benchmarks populares en los últimos diez años cumplen con los criterios #1-4; los benchmarks que no cumplen con los criterios #1-4 tendrían dificultades para hacerse populares.
¿Por qué es tan importante la verificabilidad? La cantidad de aprendizaje en IA que ocurre se maximiza cuando se satisfacen los criterios anteriores; puedes dar muchos pasos de gradiente donde cada paso tiene mucha señal. La velocidad de iteración es crítica: es la razón por la que el progreso en el mundo digital ha sido mucho más rápido que el progreso en el mundo físico.
AlphaEvolve de Google es uno de los mejores ejemplos de aprovechar la asimetría de la verificación. Se centra en configuraciones que cumplen con todos los criterios anteriores y ha llevado a una serie de avances en matemáticas y otros campos. A diferencia de lo que hemos estado haciendo en IA durante las últimas dos décadas, es un nuevo paradigma en el que todos los problemas se optimizan en un entorno donde el conjunto de entrenamiento es equivalente al conjunto de prueba.
La asimetría de la verificación está en todas partes y es emocionante considerar un mundo de inteligencia irregular donde cualquier cosa que podamos medir será resuelta.

298,79K
Un trabajo impactante que cualquiera puede hacer es utilizar LLMs para llevar un diario y digitalizar tanto de tu flujo de trabajo, CoTs e inspiración como sea posible.
Ingeniería de contexto para automatizar y aumentar tu vida y trabajo.

Thariq15 jul, 05:51
Diarios y Tareas
Tengo algunos comandos personalizados:
/comando diario que creará una nueva entrada de diario para el día.
/tareas un comando que me permitirá crear nuevas tareas o marcar otras como completadas. Las tareas están organizadas por tema en archivos, por ejemplo, ‘
Claude a menudo buscará en mi código, proyectos, etc. para obtener más contexto cuando añada una tarea, lo cual es muy útil.
839
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado