🚨Breaking: Iemand heeft net een Python-interpreter geschreven in Rust open source gemaakt en het is geweldig. Het heet Monty. En het is geen sandbox. Het is een minimale, veilige Python-runtime die specifiek is gebouwd voor AI-agenten -- en het start in minder dan 1 microseconde. Dit is wat dit ding doet: → Voert Python-code uit geschreven door LLM's zonder sandbox overhead → Blokkeert volledig bestandssysteem, omgevingsvariabelen en netwerk tenzij JIJ het toestaat → Start in 0,06 ms versus Docker's 195 ms en Pyodide's 2.800 ms → Maakt snapshots van de uitvoeringsstatus halverwege -- pauzeert, serializeert, hervat later → Voert typechecking uit met `ty` ingebakken in een enkele binaire → Roept aan vanuit Python, Rust of JavaScript -- geen CPython afhankelijkheid Hier is het wildste deel: Docker heeft 195 ms nodig om te starten. Een sandboxing-service heeft 1.033 ms nodig. Monty heeft 0,06 ms nodig. Dat is geen afrondingsfout. Dat is een totaal andere categorie van tool. Elke AI-agent die vandaag draait heeft hetzelfde probleem: je draait ofwel LLM-code direct op je host (YOLO Python -- nul beveiliging) of je start een container en wacht 200 ms per oproep. Monty sluit die kloof. Eén import. Geen daemon. Geen image pull. Geen risico op container ontsnapping. Het pydantic-team heeft dit gebouwd om code-modus in PydanticAI aan te drijven -- waar LLM's Python schrijven in plaats van tooloproepen te doen, en Monty voert het veilig uit. Cloudflare en Anthropic publiceren al op dit exacte paradigma....