Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Półprzemyślana myśl:
W dyskusjach na temat AI często pojawiają się twierdzenia dotyczące zarówno możliwości, jak i skutków społecznych, a w praktyce granica jest dość niejasna. Różne typy osobowości i zawody postrzegają rzeczywistość przez różne soczewki. Na ryzyko nadmiernego karykaturowania, dwie powszechne soczewki wydają się być następujące:
Perspektywa informatyka jest taka: wystarczająco zdolna ASI może w zasadzie rozwiązać każdy problem. Wiedza lokalna to tylko dane do przetworzenia. Jeśli jesteś wystarczająco mądry i masz wystarczającą moc obliczeniową, możesz zcentralizować (i rozwiązać) wszystko. Więc gdy tylko przekroczysz próg 'inteligencji' człowieka, jaką 'użyteczność' może mieć człowiek?
Perspektywa ekonomisty (szczególnie w nurcie hayekowskim) jest taka: wiedza to nie tylko fakty do zebrania, jest kontekstowa, ukryta, często generowana w danym momencie poprzez interakcję. Nie istnieje przed procesem, który ją wykorzystuje. Żaden poziom optymalizacji nie pozwala pominąć tego procesu, ponieważ wiedza nie czeka tam na odkrycie - jest konstytuowana przez interakcję.
W pierwszym ujęciu, ludzka agencja staje się epifenomenalna, po prostu obserwujesz, jak optymalizator wykonuje swoją pracę. Natomiast w drugim przypadku, jeśli wiedza jest częściowo konstytuowana przez interakcję, to agencja jest kluczowym elementem. W rzeczywistości jest nieodłączna od samego procesu epistemicznego.
To może wyjaśniać, dlaczego dwa obozy rozmawiają obok siebie. Perspektywa informatyka postrzega zastrzeżenie ekonomisty jako "ludzie chcą czuć się użyteczni" lub "aktualna AI nie jest jeszcze wystarczająco zdolna" - ograniczenia kontyngentne, które zostaną przezwyciężone. Perspektywa ekonomisty widzi stanowisko informatyka jako błąd kategorii dotyczący tego, czym jest wiedza - nie jako twierdzenie o przyszłych poziomach zdolności, ale o strukturze problemu.
Perspektywa ekonomiczna wydaje się z natury mniej deterministyczna i sugeruje pewne korzyści: po pierwsze, czas. Jeśli wdrożenie i adaptacja to prawdziwa praca, której nie można pominąć, przejście nie jest natychmiastowe. Nie ma "foom", gdzie jeden system nagle robi wszystko. Ale co ważniejsze, punkty dźwigni: jeśli tworzenie wartości wymaga kontekstowej integracji, istnieje wiele punktów, w których zarządzanie, instytucje i wybory mogą kształtować wyniki. Nie jest to wyłącznie determinowane przez tego, kto ma największy klaster treningowy lub jak zdolny jest twój system.
Inny kluczowy aspekt to w zasadzie to, jak myślisz o dostosowaniu. Gillian Hadfield wyjaśnia, że "normy i wartości nie są tylko cechami zewnętrznego środowiska... zamiast tego są równowagowymi wynikami dynamicznych systemów behawioralnych." (Z perspektywy informatyka, dostosowanie jest technicznym problemem wydobywania właściwej funkcji celu. Jeśli przyjmujesz perspektywę ekonomisty, dostosowanie *jest* integracją w dynamiczne procesy społeczne, które konstytuują normatywne osądy: produkty, głosy, normy, konwencje, wybory itp.
Kształtowanie tego jest ciągłym procesem, a nie czymś, co można rozwiązać ex ante. To niekoniecznie oznacza, że perspektywa informatyka jest błędna: problemy agenta głównego i problemy związane z przestrzeganiem instrukcji są realne - ale przestrzeń rozwiązań jest znacznie większa niż sam model i obejmuje cały instytucjonalny stos, przez który systemy AI są wdrażane, zarządzane i pociągane do odpowiedzialności.

Najlepsze
Ranking
Ulubione
