Det sykofantiska LLM-problemet är riktigt illa. Jag litar inte längre på något standardsvar från en LLM, och följer nästan alltid upp det första svaret med något i stil med "är du säker?" Jag brukar behöva göra någon form av detta 2-3 gånger innan jag får information som jag tror är någorlunda korrekt. Kan inte ens föreställa mig hur många problem detta orsakar för normies som precis har upptäckt AI och är övertygade om att det är magi.
11,13K