Ho trovato un'analogia interessante, le "allucinazioni" dell'AI: quando non conosce la risposta corretta, può dire sciocchezze basate sulla probabilità; questo è molto simile agli esseri umani, molti di noi, in ambiti che non comprendiamo affatto, danno risposte "sicure" basate sulla propria immaginazione. Un modo per affrontare le "allucinazioni" dell'AI è: utilizzare molte conversazioni in cui ha risposto in modo errato per addestrarla, facendole capire che quando non sa, deve dire: mi dispiace, non lo so. Affrontare le "allucinazioni" umane potrebbe richiedere un approccio simile: ripensare a casi in cui si "pensava di sapere", ma che si sono rivelati completamente errati. Molte volte, alcune perdite significative derivano proprio da questo. In questo modo, la prossima volta che si prendono decisioni di trading, riflettere se si è in uno stato di "allucinazione" potrebbe essere molto utile.
38,71K