Znalazłem ciekawą analogię, „halucynacje” AI: gdy nie zna poprawnej odpowiedzi, potrafi mówić bzdury na podstawie prawdopodobieństwa; co jest podobne do ludzi, którzy w dziedzinach, których w ogóle nie rozumieją, pewnie podają „odpowiedzi” na podstawie własnej wyobraźni. Jednym ze sposobów radzenia sobie z „halucynacjami” AI jest: użycie wielu rozmów, w których odpowiedział błędnie, aby go wytrenować, aby zrozumiał, że gdy nie wie, powinien powiedzieć: przepraszam, nie wiem. Radzenie sobie z „halucynacjami” ludzi można by również zastosować podobną metodę: Często przypominaj sobie przypadki, w których „myślałeś, że wiesz”, ale okazało się, że były całkowicie błędne. Wiele razy poważne straty wynikają z tego. W ten sposób, następnym razem podejmując decyzje handlowe, dobrze się zastanów, czy nie jesteś w „halucynacji”, co może być bardzo pomocne.
38,76K