Caramba! A OpenAI terá os seus chips de inferência personalizados prontos em apenas alguns meses e implantados em grande escala até ao final do ano! 🤯 Chip de treino = Os pesados que requerem enormes quantidades de dados e energia para construir e ensinar os modelos de IA desde o início. Chip de inferência = Os chips especializados e altamente eficientes que realmente executam a IA e geram as respostas em tempo real quando você os utiliza. Isto vai ajudar a OpenAI a reduzir drasticamente os seus enormes custos de computação, acelerar os tempos de raciocínio dos modelos e finalmente libertar-se da dependência total da Nvidia para escalar as suas operações.