OpenAIの新しい研究では、モデルが幻覚を見るのは、「わからない」と言うのではなく、自信を持って推測するように訓練されているからであることが判明した。 考えられる解決策は、間違った推測を罰しながら正直さに報いることです。目標は、実際に信頼できる AI を持つことです。