¡Súper emocionado de lanzar @RunLLM v2 hoy! 😎🎉 Cuando comenzamos a construir sistemas expertos sobre productos complejos hace 2 años, no teníamos idea de que se convertiría en un Ingeniero de Soporte de IA. Comenzamos enfocándonos en ofrecer las respuestas de la más alta calidad posible, y eso nos ganó la confianza de equipos en Databricks, Sourcegraph, Monte Carlo Data y Corelight. Pero las respuestas de alta calidad son solo una parte de un buen Ingeniero de Soporte de IA. Desde nuestro último lanzamiento, hemos reconstruido RunLLM desde cero, introduciendo un nuevo planificador agente, rediseñando nuestra interfaz de usuario y dando a nuestros clientes un control detallado sobre los flujos de trabajo de los agentes. Hoy, nos enfocamos en las nuevas características agentes, porque, bueno, es 2025 y tienes que tener agentes. 😉 Bromas aparte, la publicación a continuación detalla en profundidad cómo hemos repensado el proceso de inferencia central de RunLLM, cómo mostramos nuestro trabajo y qué hemos construido para realizar análisis de registros y telemetría. ¡Échale un vistazo! 👇
360B62
360B6229 jul 2025
We’re excited to introduce RunLLM v2 today! 🎉 RunLLM v2 is rebuild of the product from the ground up focused on delivering the most powerful and flexible platform for enterprise support teams. Read the RunLLM v2 launch blog post: 👉 Today’s launch includes: 🤖 A new agentic planner with fine-grained reasoning and tool use support ✨ A redesigned new UI that enables creating, managing, and inspecting multiple agents ⚙️ A Python SDK that allows you to exercise fine-grained control over support workflows We’ll be sharing more throughout the week, but today we’re focused on how RunLLM’s new agentic capabilities enable more precise answers and more effective debugging.
10.21K