Das sycophantische LLM-Problem ist wirklich schlimm. Ich vertraue keiner Standardantwort von einem LLM mehr, und fast immer folge ich der ersten Antwort mit etwas in der Art von: "Bist du dir sicher?" Ich muss normalerweise 2-3 Mal so etwas machen, bevor ich Informationen erhalte, die ich für einigermaßen genau halte. Ich kann mir nicht einmal vorstellen, wie viele Probleme das für Normies verursacht, die gerade AI entdecken und überzeugt sind, dass es Magie ist.
11,14K