Una nueva investigación de OpenAI descubrió que los modelos alucinan porque han sido entrenados para adivinar con confianza en lugar de decir: "No lo sé".  Una posible solución es recompensar la honestidad y castigar las malas conjeturas. El objetivo es tener una IA en la que realmente puedas confiar.