Hola @vercel fanáticos (y @rauchg), acabo de notar que ahora puedo implementar funciones de Python sin servidor en Vercel que superan los 50M. Podría haber jurado que hace un par de semanas, recibí un error cuando superé los 50 metros. ¿Me perdí algo? ¿Es esto ahora oficialmente compatible? Si es así, esto me alegró la semana.
Hice una consulta de investigación profunda de ChatGPT y, evidentemente, a mediados de marzo de 2025, Vercel apoya oficialmente subir al límite de 250 millones (sin comprimir) y ha levantado el límite de 50 millones (comprimido). Supongo que están usando S3 para implementar en AWS Lambda.
13.53K