トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨速報:誰かがRustで書かれたPythonインタプリタをオープンソース化したのですが、本当に驚いています。
『モンティ』っていうんだ。そして、それは砂場ではありません。
これはAIエージェント専用に設計された最小限で安全なPythonランタイムで、1マイクロ秒未満で開始します。
この装置の機能は以下の通りです:
→ LLMが書いたPythonコードをサンドボックスオーバーヘッドなしで実行します
→ ファイルシステム、環境変数、ネットワークを完全にブロックします。あなたが許可しない限りです
→ Dockerの195ms、Pyodideの2,800msに対し、0.06msでスタート
→ スナップショットの実行状態(途中の実行)――一時停止、シリアライズ、後で再開
→ 1つのバイナリに組み込まれたタイプチェックを実行
→ Python、Rust、JavaScriptからの呼び出し ― CPython依存なし
ここが一番驚くべき部分です:
Dockerの開始には195msかかります。サンドボックスサービスは1,033msかかります。
モンティは0.06msで終わります。
これは四捨五入誤差ではありません。それは全く別のカテゴリーの道具です。
現在稼働しているすべてのAIエージェントは同じ問題を抱えています。ホスト上で直接LLMコードを実行するか(YOLO Python、セキュリティゼロ)、コンテナを起動して1回の通話につき200ms待つかのどちらかです。
モンティがその差を詰めます。輸入1件。デーモンもいない。画像引き込みもありません。コンテナの脱出リスクはありません。
pydanticチームはこれをPydanticAIのコードモードに搭載するために作りました。ここではLLMがツール呼び出しを行う代わりにPythonを書き、Montyが安全に実行します。
CloudflareやAnthropicはすでにこのまさにこのパラダイムで論文を発表しています。...

トップ
ランキング
お気に入り
