Estoy profundamente de acuerdo:1. La cooperación paralela entre múltiples agentes no es tan estable como un solo hilo. 2. RAG no es tan confiable como la búsqueda tradicional; 3. Cuantas más instrucciones haya en el mensaje, más no sabrá elegir el modelo. ——La traducción original es la siguiente—— En el camino hacia la creación de agentes de IA, nuestro equipo @Cline identificado tres "virus pensantes". El llamado "virus pensante" son esas ideas tentadoras que suenan muy inteligentes pero que no funcionan en absoluto en la práctica. Los tres virus son: * Orquestación multiagente * Generación aumentada de recuperación (RAG) * Cuantas más instrucciones = mejor es el efecto ¡Vamos a averiguar! 1. Colaboración multiagente El tipo de escena en una película de ciencia ficción - "agentes de retaguardia, agentes de municiones, agentes de análisis, agentes de comando" - despachando a un gran grupo de subagentes y finalmente resumiendo los resultados - suena realmente genial. Pero la realidad es que la gran mayoría del trabajo útil de los agentes es de un solo hilo. Los procesos de colaboración complejos rara vez ofrecen un valor real y, a menudo, crean caos. Ya sabes, ya es bastante difícil lograr que el modelo funcione de manera estable en un solo subproceso, y mucho menos lidiar con la lógica de colaboración paralela. Esto no solo aumenta la complejidad de la implementación, sino que también hace que el proceso de comprensión y toma de decisiones del modelo sea extremadamente complejo. 2. Usar RAG para crear agentes RAG, o Retrieval Augmented Generation, también es un virus del pensamiento. Parece poderoso en teoría, pero en la práctica, especialmente en escenarios de agentes, incluso los comandos básicos de búsqueda de texto como GREP a veces son mejores que él. ¿Por qué el aura de RAG se desvanece en el flujo de trabajo real del agente? Porque la información recuperada a menudo está fragmentada y no puede permitir que el modelo forme una "comprensión" coherente y útil. Un mejor enfoque es casi siempre dejar que el modelo enumere los archivos por sí solo, busque de forma similar a grep y luego abra y lea todo el archivo (como un humano). El equipo de @Cline comenzó a hacer esto temprano, y luego vimos que @Amp (vista previa de investigación y @Cursor) también se movieron hacia este enfoque más pragmático. 3. Más instrucciones = mejor será el efecto Existe la idea errónea generalizada de que acumular más y más "instrucciones" en las indicaciones del sistema hace que el modelo sea más inteligente. Esto es completamente incorrecto. "Regar" el mensaje solo confundirá al modelo, ya que más instrucciones tienden a conducir a sugerencias contradictorias y sobrecarga de información. Como resultado, tienes que jugar un juego de "golpear al topo" y jugar constantemente con todo tipo de comportamientos extraños del modelo en lugar de obtener resultados realmente útiles. Para la mayoría de los modelos de vanguardia de hoy en día, la mejor manera de apartarse de su camino es no gritarles en un intento de dirigirlos en una dirección particular. Por favor, aprecie cada una de sus palabras (o símbolos). Con todo, las tres ideas anteriores son muy tentadoras. Si no trabajas con IA todo el día, podrías pensar que todos tienen mucho sentido, pero no es así. Por supuesto, a medida que mejoran las capacidades de los modelos subyacentes, nuestra percepción de estos métodos puede cambiar en el futuro.
Ara
Ara20 ago, 01:00
Al construir agentes de IA @cline, hemos identificado tres virus mentales Los virus mentales son ideas seductoras que suenan inteligentes, pero no funcionan en la práctica. 1. Orquestación multiagente 2. RAG (Generación aumentada de recuperación) 3. Más instrucciones = mejores resultados ¡Exploremos por qué!
85.87K