Obawiam się, że skupienie społeczności zajmującej się bezpieczeństwem AI na krótkich terminach powoduje, że działa ona w kontrproduktywnym nastawieniu na niedobór. Wolałbym podejście portfelowe, w którym osoby koncentrują się na bardziej lub mniej pilnych scenariuszach w proporcji do tego, jak emocjonalnie odporne są.
Nie mówię, że powinieneś zmieniać swoje *przekonania* na temat możliwych przyszłości, tylko że powinieneś zmienić, na który podzbiór możliwych przyszłości chcesz się skupić, aby go poprawić. Skupianie się na scenariuszach krótkoterminowych jest jak bycie pierwszym ratownikiem. Większość ludzi nie jest do tego temperamentnie przystosowana.
Konkretnie, skupienie się na krótkich horyzontach czasowych wydaje się prowadzić do niedoinwestowania w badania podstawowe, do myślenia, że "jakakolwiek regulacja jest dobra" (np. ludzie mówiący, że SB-1047 była "ostatnią szansą" na regulację w krótkim czasie), plemienności/paranoi (patrz zamach na zarząd OpenAI) itd.
Osobiście koncentruję się na badaniach i planach, które oczekuję, że przyniosą efekty głównie w ciągu 10+ lat, częściowo z powodu moich empirycznych przekonań, ale głównie dlatego, że nienawidzę wymyślać prowizorycznych rozwiązań pod presją czasu.
Inne przykłady: raport @leopoldasch dotyczący Świadomości Sytuacyjnej miał bardzo ograniczone myślenie (ale to, że teraz prowadzi fundusz hedgingowy, już nie). Wielu ludzi, w tym ja, zbyt długo pozostawało w OpenAI z powodu myślenia o niedoborze. Ogólnie rzecz biorąc, „*coś* musi być zrobione” to bardzo podwójny miecz.
22,88K