SOTA, modelos abertos ocidentais ✅ Modelos muito grandes ✅ Nova dimensão para escalar a inteligência ✅ Construído por menos de $3,5M 🤯 Tem sido incrível trabalhar com a equipe desde o investimento da @benchmark em novembro passado. Agradecimentos especiais a @adityaag e @southpkcommons por nos apresentarem!
Drishan Arora
Drishan Arora1/08, 01:02
Hoje, estamos a lançar 4 modelos de raciocínio híbrido de tamanhos 70B, 109B MoE, 405B, 671B MoE sob licença aberta. Estes são alguns dos LLMs mais fortes do mundo e servem como prova de conceito para um novo paradigma de IA - autoaperfeiçoamento iterativo (sistemas de IA que se melhoram a si mesmos). O maior modelo de 671B MoE está entre os modelos abertos mais fortes do mundo. Ele iguala/excede o desempenho dos mais recentes modelos DeepSeek v3 e DeepSeek R1, e aproxima-se de modelos de fronteira fechada como o o3 e o Claude 4 Opus.
9,32K