Det sykofantiske LLM-problemet er veldig ille. Jeg stoler ikke lenger på noe standardsvar fra en LLM, og følger nesten alltid opp det første svaret med noe i retning av "er du sikker?" Jeg må vanligvis gjøre en eller annen form for dette 2-3 ganger før jeg får informasjon jeg tror er noenlunde nøyaktig. Kan ikke engang forestille meg hvor mange problemer dette forårsaker for normies som nettopp oppdager AI og er overbevist om at det er magi.
11,12K