Jeg er bekymret for at AI-sikkerhetssamfunnets fokus på korte tidslinjer får det til å operere i en kontraproduktiv knapphetstankegang. Jeg foretrekker en porteføljetilnærming der enkeltpersoner fokuserer på mer eller mindre presserende scenarier i forhold til hvor følelsesmessig motstandsdyktige de er.
Jeg sier ikke at du skal endre din *tro* på mulige fremtider, bare at du bør endre hvilken undergruppe av mulige fremtider du tar sikte på å forbedre. Å fokusere på korte tidslinjescenarier er som å være en førstehjelper. De fleste mennesker er ikke temperamentsmessig egnet til det.
Konkret ser det ut til at fokus på korte tidslinjer driver en underinvestering i grunnleggende forskning, en "enhver regulering er bra"-tankegang (f.eks. folk som sier at SB-1047 var "siste sjanse" for regulering av korte tidslinjer), tribalisme/paranoia (se openai-styrekupp) osv.
Personlig fokuserer jeg på forskning og planer som jeg forventer å lønne seg først og fremst over 10+ år, delvis på grunn av min empiriske tro, men mest fordi jeg hater å prøve å komme opp med hacky løsninger under tidspress.
Andre eksempler: @leopoldasch Situational Awareness-rapport var veldig knapphetstankegang (men han som nå driver et hedgefond er det ikke). Mange mennesker, inkludert meg selv, ble hos OpenAI for lenge av knapphetstankegang. Mer generelt er "*noe* må gjøres" et veldig tveegget sverd.
22,88K