Hola fans de @vercel (y @rauchg), acabo de notar que ahora puedo desplegar funciones de Python sin servidor en Vercel que superan los 50M. Podría haber jurado que hace un par de semanas, recibí un error cuando superé los 50M. ¿Me perdí de algo? ¿Esto ahora está oficialmente soportado? Si es así, esto ha hecho mi semana.
Hice una consulta de investigación profunda con ChatGPT y evidentemente, a mediados de marzo de 2025, Vercel admite oficialmente llegar hasta el límite de 250M (sin comprimir) y ha levantado el límite de 50M (comprimido). Supongo que están utilizando S3 para desplegar en AWS Lambda.
13,52K