Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Mistral AI
En nuestro continuo compromiso con la ciencia abierta, estamos publicando el Informe Técnico de Voxtral:
El informe cubre detalles sobre el pre-entrenamiento, el post-entrenamiento, la alineación y las evaluaciones. También presentamos un análisis sobre la selección de la arquitectura de modelo óptima, qué formato de pre-entrenamiento utilizar y los beneficios de DPO.

21,49K
Mistral AI republicó
Unmute convierte un LLM de texto en una IA de voz. En , es el Mistral-Small-3.2-24B de @MistralAI, haciéndolo completamente de código abierto. Juega un juego de preguntas con un anfitrión sarcástico, ponte al día con las noticias tecnológicas, o simplemente pasa el rato y charla. ¡O modifícalo para hacer lo que quieras!
13,36K
Presentamos Mistral Small 3.2, una pequeña actualización de Mistral Small 3.1 para mejorar:
- Seguimiento de instrucciones: Small 3.2 es mejor siguiendo instrucciones precisas
- Errores de repetición: Small 3.2 produce menos generaciones infinitas o respuestas repetitivas
- Llamadas a funciones: La plantilla de llamadas a funciones de Small 3.2 es más robusta



12,9K
Estamos orgullosos de anunciar Mistral Compute—una empresa de infraestructura de IA sin precedentes en Europa, y una iniciativa estratégica que garantizará que todos los estados-nación, empresas y laboratorios de investigación a nivel mundial se mantengan a la vanguardia de la innovación en IA.
Lee más en el hilo.

128,65K
Mistral AI republicó
Hoy lanzamos ether0, nuestro primer modelo de razonamiento científico.
Entrenamos a Mistral 24B con RL en varias tareas de diseño molecular en química. Sorprendentemente, descubrimos que los LLM pueden aprender algunas tareas científicas de manera más eficiente en cuanto a datos que los modelos especializados entrenados desde cero con los mismos datos, y pueden superar en gran medida a los modelos de frontera y a los humanos en esas tareas. Para al menos un subconjunto de problemas científicos de clasificación, regresión y generación, los LLM posteriores al entrenamiento pueden proporcionar un enfoque mucho más eficiente en cuanto a los datos que los enfoques tradicionales de aprendizaje automático. 1/n
90,27K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado