Super podekscytowani, że dzisiaj uruchamiamy @RunLLM v2! 😎🎉 Kiedy zaczynaliśmy budować systemy eksperckie na złożonych produktach 2 lata temu, nie mieliśmy pojęcia, że przekształci się to w AI Support Engineer. Zaczęliśmy od skupienia się na dostarczaniu odpowiedzi najwyższej jakości, co zyskało nam zaufanie zespołów w Databricks, Sourcegraph, Monte Carlo Data i Corelight. Jednak wysokiej jakości odpowiedzi to tylko jedna część dobrego AI Support Engineer. Od naszego ostatniego uruchomienia, przebudowaliśmy RunLLM od podstaw, wprowadzając nowego agenta planującego, przeprojektowując nasz interfejs użytkownika i dając naszym klientom szczegółową kontrolę nad przepływami pracy agentów. Dziś skupiamy się na nowych funkcjach agentów, ponieważ, cóż, jest 2025 rok i musisz mieć agentów. 😉 Żarty na bok, poniższy post szczegółowo opisuje, jak przemyśleliśmy podstawowy proces wnioskowania RunLLM, jak pokazujemy naszą pracę i co zbudowaliśmy, aby przeprowadzać analizę logów i telemetrii. Sprawdź to! 👇
360B62
360B6229 lip 2025
Z radością przedstawiamy dzisiaj RunLLM v2! 🎉 RunLLM v2 to przebudowa produktu od podstaw, skoncentrowana na dostarczeniu najpotężniejszej i najbardziej elastycznej platformy dla zespołów wsparcia w przedsiębiorstwach. Przeczytaj wpis na blogu o uruchomieniu RunLLM v2: 👉 Dzisiejsze uruchomienie obejmuje: 🤖 Nowy agentowy planista z precyzyjnym rozumowaniem i wsparciem dla narzędzi ✨ Przebudowany interfejs użytkownika, który umożliwia tworzenie, zarządzanie i inspekcję wielu agentów ⚙️ Python SDK, który pozwala na precyzyjną kontrolę nad procesami wsparcia W ciągu tygodnia podzielimy się większą ilością informacji, ale dzisiaj skupiamy się na tym, jak nowe agentowe możliwości RunLLM umożliwiają bardziej precyzyjne odpowiedzi i skuteczniejsze debugowanie.
10,22K