El problema adulador de LLM es realmente malo. Ya no confío en ninguna respuesta predeterminada de un LLM, y casi siempre sigo la primera respuesta con algo como "¿estás seguro?" Por lo general, tengo que hacer alguna forma de esto 2-3 veces antes de obtener información que creo que es algo precisa. Ni siquiera puedo imaginar cuántos problemas causa esto para los normies que recién están descubriendo la IA y están convencidos de que es magia.
11.13K