Super aufgeregt, heute @RunLLM v2 zu starten! 😎🎉 Als wir vor 2 Jahren anfingen, Expertensysteme für komplexe Produkte zu entwickeln, hatten wir keine Ahnung, dass es sich zu einem KI-Support-Ingenieur entwickeln würde. Wir haben damit begonnen, uns darauf zu konzentrieren, die bestmöglichen Antworten zu liefern, und das hat uns das Vertrauen von Teams bei Databricks, Sourcegraph, Monte Carlo Data und Corelight eingebracht. Aber hochwertige Antworten sind nur ein Teil eines guten KI-Support-Ingenieurs. Seit unserem letzten Launch haben wir RunLLM von Grund auf neu aufgebaut, einen neuen agentischen Planer eingeführt, unsere Benutzeroberfläche neu gestaltet und unseren Kunden eine feinkörnige Kontrolle über die Agenten-Workflows gegeben. Heute konzentrieren wir uns auf die neuen agentischen Funktionen, denn, nun ja, es ist 2025 und man muss Agenten haben. 😉 Scherz beiseite, der folgende Beitrag beschreibt im Detail, wie wir den Kerninferenzprozess von RunLLM neu durchdacht haben, wie wir unsere Arbeit zeigen und was wir gebaut haben, um Protokoll- und Telemetrieanalysen durchzuführen. Schau es dir an! 👇
360B62
360B6229. Juli 2025
We’re excited to introduce RunLLM v2 today! 🎉 RunLLM v2 is rebuild of the product from the ground up focused on delivering the most powerful and flexible platform for enterprise support teams. Read the RunLLM v2 launch blog post: 👉 Today’s launch includes: 🤖 A new agentic planner with fine-grained reasoning and tool use support ✨ A redesigned new UI that enables creating, managing, and inspecting multiple agents ⚙️ A Python SDK that allows you to exercise fine-grained control over support workflows We’ll be sharing more throughout the week, but today we’re focused on how RunLLM’s new agentic capabilities enable more precise answers and more effective debugging.
10,22K