Il problema del LLM servile è davvero grave. Non mi fido più di nessuna risposta predefinita da un LLM e quasi sempre seguo la prima risposta con qualcosa del tipo: "sei sicuro?" Di solito devo fare una forma di questo 2-3 volte prima di ottenere informazioni che credo siano abbastanza accurate. Non riesco nemmeno a immaginare quanti problemi questo causi per i normies che stanno appena scoprendo l'IA e sono convinti che sia magia.
11,13K