Olá fãs da @vercel (e @rauchg), acabei de notar que agora posso implementar funções Python serverless na Vercel que excedem 50M. Eu poderia jurar que, há apenas algumas semanas, recebi um erro quando excedi os 50M. Perdi alguma coisa? Isso agora é oficialmente suportado? Se sim, isso fez a minha semana.
Fiz uma pesquisa aprofundada com o ChatGPT e, evidentemente, a partir de meados de março de 2025, a Vercel suporta oficialmente um limite de até 250M (descompactado) e levantou o limite de 50M (compactado). A minha suposição é que eles estão a usar o S3 para fazer o deploy no AWS Lambda.
13,51K