Problema LLM este foarte gravă. Nu mai am încredere în niciun răspuns implicit de la un LLM și aproape întotdeauna urmăresc primul răspuns cu ceva de genul "ești sigur?" De obicei trebuie să fac o formă de acest lucru de 2-3 ori înainte de a obține informații pe care le cred a fi oarecum exacte. Nici măcar nu-mi pot imagina câte probleme cauzează acest lucru normelor care abia descoperă AI și sunt convinse că este magie.
11,14K