Sunt îngrijorat de faptul că concentrarea comunității de siguranță AI pe termene scurte o face să funcționeze într-o mentalitate contraproductivă de penurie. Aș prefera o abordare de portofoliu în care indivizii se concentrează pe scenarii mai mult sau mai puțin urgente proporțional cu cât de rezilienți emoțional sunt.
Nu spun că ar trebui să-ți schimbi *convingerile* despre viitorurile posibile, doar că ar trebui să schimbi ce subset de viitoruri posibile vrei să îmbunătățești. Concentrarea pe scenarii scurte este ca și cum ai fi primul răspuns. Majoritatea oamenilor nu sunt potriviți din punct de vedere temperamental pentru asta.
Concret, concentrarea pe termene scurte pare să conducă la o investiție insuficientă în cercetarea fundamentală, o mentalitate "orice reglementare este bună" (de exemplu, oamenii care spun că SB-1047 a fost "ultima șansă" pentru reglementare în termene scurte), tribalism/paranoia (vezi lovitura de stat a consiliului openai) etc.
Personal mă concentrez pe cercetări și planuri care mă aștept să dea roade în primul rând peste 10+ ani, parțial din cauza convingerilor mele empirice, dar mai ales pentru că urăsc să încerc să găsesc soluții hacky sub presiunea timpului.
Alte exemple: raportul de conștientizare a situației lui @leopoldasch a fost foarte rar (dar el acum conduce un fond speculativ nu este). Mulți oameni, inclusiv eu, au rămas la OpenAI prea mult timp din mentalitate de penurie. În general, "*ceva* trebuie făcut" este o sabie cu două tăișuri.
22,89K