Modéstia à parte... Eles não vão acreditar que uma menina do Quénia construiu o motor de orquestração para isto, mas fui eu!
NIK
NIK25/07, 12:47
Neste momento, o Google tem cerca de 1 milhão de TPUs Ironwood v7 (equivalente a H100) e 500 mil GPUs H100 online. Com 400-600 mil GPUs NVIDIA Blackwell (racks GB200 NVL72) a caminho. Portanto, a capacidade total de computação = 2 milhões de equivalentes H100 até ao final do ano. Eles vão gastar 85 mil milhões de dólares em 2025 (aumentado a partir da previsão de 75 mil milhões) O CEO da DeepMind, @demishassabis, disse ontem: “Estamos a escalar ao MÁXIMO as nossas capacidades atuais. Estamos a ver um progresso fantástico em cada versão diferente do Gemini.” O Gemini está a ser treinado nestas TPUs agora.
3,53M