Oppdag en interessant analogi, AIs «hallusinasjon»: Når du ikke vet det riktige svaret, vil du også snakke tull basert på sannsynlighet; Dette er veldig likt mennesker, mange mennesker vil trygt gi "svar" i henhold til fantasien deres på noen områder de ikke forstår i det hele tatt. En måte å håndtere AI-«hallusinasjoner» på er å trene dem til å forstå at når de ikke vet, si: Beklager, jeg vet ikke. Å håndtere menneskelige "hallusinasjoner" kan gjøres på en lignende måte: Tenk tilbake på saken der du "trodde du visste", men det viste seg å være helt feil. Mange ganger kommer noen store tap fra dette. På denne måten, neste gang du tar en handelsbeslutning, vil det være nyttig å tenke nøye gjennom om du er i en "illusjon".
38,76K