Atingimos um marco importante no treinamento totalmente descentralizado: pela primeira vez, demonstramos que um modelo de linguagem grande pode ser dividido e treinado em dispositivos de consumo conectados pela internet - sem perda de velocidade ou desempenho.
161,12K