🚨Notícias de última hora: Alguém acaba de abrir o código-fonte de um interpretador Python escrito em Rust e é incrível. Chama-se Monty. E não é um sandbox. É um runtime Python mínimo e seguro, construído especificamente para agentes de IA -- e inicia em menos de 1 microssegundo. Aqui está o que esta coisa faz: → Executa código Python escrito por LLMs sem sobrecarga de sandbox → Bloqueia completamente o sistema de arquivos, variáveis de ambiente e rede, a menos que VOCÊ permita → Inicia em 0,06ms contra 195ms do Docker e 2.800ms do Pyodide → Captura o estado de execução em pleno voo -- pausa, serializa, retoma depois → Realiza verificação de tipos com `ty` embutido em um único binário → Chamadas a partir de Python, Rust ou JavaScript -- sem dependência do CPython Aqui está a parte mais incrível: O Docker leva 195ms para iniciar. Um serviço de sandboxing leva 1.033ms. Monty leva 0,06ms. Isso não é um erro de arredondamento. É uma categoria de ferramenta completamente diferente. Todo agente de IA em funcionamento hoje tem o mesmo problema: você executa o código LLM diretamente no seu host (YOLO Python -- zero segurança) ou você inicia um contêiner e espera 200ms por chamada. Monty fecha essa lacuna. Uma importação. Sem daemon. Sem pull de imagem. Sem risco de escape de contêiner. A equipe do pydantic construiu isso para alimentar o modo de código no PydanticAI -- onde LLMs escrevem Python em vez de fazer chamadas de ferramentas, e Monty o executa com segurança. Cloudflare e Anthropic já estão publicando sobre este exato paradigma....