El problema del LLM servil es realmente grave. Ya no confío en ninguna respuesta predeterminada de un LLM, y casi siempre sigo la primera respuesta con algo como: "¿estás seguro?" Normalmente tengo que hacer alguna forma de esto 2-3 veces antes de obtener información que creo que es algo precisa. No puedo imaginar cuántos problemas esto causa a los normies que apenas están descubriendo la IA y están convencidos de que es magia.
11,23K