SOTA, modelos ✅ abertos ocidentais Modelos ✅ muito grandes Nova dimensão para ampliar a inteligência✅ Construído por menos de US$ 3,5 milhões 🤯 Tem sido incrível trabalhar com a equipe desde o investimento de @benchmark em novembro passado. Agradecimentos especiais a @adityaag @southpkcommons por nos apresentar!
Drishan Arora
Drishan Arora1 de ago., 01:02
Hoje, estamos lançando 4 modelos de raciocínio híbrido de tamanhos 70B, 109B MoE, 405B, 671B MoE sob licença aberta. Esses são alguns dos LLMs mais fortes do mundo e servem como uma prova de conceito para um novo paradigma de IA - autoaperfeiçoamento iterativo (sistemas de IA que se aprimoram). O maior modelo 671B MoE está entre os modelos abertos mais fortes do mundo. Ele iguala/excede o desempenho dos modelos mais recentes do DeepSeek v3 e do DeepSeek R1 e se aproxima de modelos de fronteira fechada como o3 e Claude 4 Opus.
9,33K