Jag är orolig för att AI-säkerhetsgemenskapens fokus på korta tidslinjer gör att de arbetar i ett kontraproduktivt knapphetstänkande. Jag skulle föredra en portföljstrategi där individer fokuserar på mer eller mindre brådskande scenarier i proportion till hur känslomässigt motståndskraftiga de är.
Jag säger inte att du ska ändra dina *övertygelser* om möjliga framtider, bara att du bör ändra vilken delmängd av möjliga framtider du siktar på att förbättra. Att fokusera på scenarier med korta tidslinjer är som att vara en första respondent. De flesta människor är inte temperamentsmässigt lämpade för det.
Rent konkret verkar fokuseringen på korta tidsramar leda till en underinvestering i grundforskning, ett "alla regleringar är bra"-tänkesätt (t.ex. folk som säger att SB-1047 var "sista chansen" för reglering med korta tidsramar), tribalism/paranoia (se openai-styrelsekupp) etc.
Personligen fokuserar jag på forskning och planer som jag förväntar mig ska löna sig främst över 10+ år, delvis på grund av mina empiriska övertygelser, men mest för att jag hatar att försöka komma på hackiga lösningar under tidspress.
Andra exempel: @leopoldasch:s Situational Awareness-rapport var mycket knapphetstänkande (men det gör inte hans nu ledande hedgefond). Många människor, inklusive jag själv, stannade kvar på OpenAI för länge på grund av knapphetstänk. Mer allmänt är "*något* måste göras" ett mycket tveeggat svärd.
22,89K