🚨速報:誰かがRustで書かれたPythonインタプリタをオープンソース化したのですが、本当に驚いています。 『モンティ』っていうんだ。そして、それは砂場ではありません。 これはAIエージェント専用に設計された最小限で安全なPythonランタイムで、1マイクロ秒未満で開始します。 この装置の機能は以下の通りです: → LLMが書いたPythonコードをサンドボックスオーバーヘッドなしで実行します → ファイルシステム、環境変数、ネットワークを完全にブロックします。あなたが許可しない限りです → Dockerの195ms、Pyodideの2,800msに対し、0.06msでスタート → スナップショットの実行状態(途中の実行)――一時停止、シリアライズ、後で再開 → 1つのバイナリに組み込まれたタイプチェックを実行 → Python、Rust、JavaScriptからの呼び出し ― CPython依存なし ここが一番驚くべき部分です: Dockerの開始には195msかかります。サンドボックスサービスは1,033msかかります。 モンティは0.06msで終わります。 これは四捨五入誤差ではありません。それは全く別のカテゴリーの道具です。 現在稼働しているすべてのAIエージェントは同じ問題を抱えています。ホスト上で直接LLMコードを実行するか(YOLO Python、セキュリティゼロ)、コンテナを起動して1回の通話につき200ms待つかのどちらかです。 モンティがその差を詰めます。輸入1件。デーモンもいない。画像引き込みもありません。コンテナの脱出リスクはありません。 pydanticチームはこれをPydanticAIのコードモードに搭載するために作りました。ここではLLMがツール呼び出しを行う代わりにPythonを書き、Montyが安全に実行します。 CloudflareやAnthropicはすでにこのまさにこのパラダイムで論文を発表しています。...