Estou preocupado que o foco da comunidade de segurança de IA em prazos curtos esteja fazendo com que ela opere em uma mentalidade de escassez contraproducente. Eu preferiria uma abordagem de portfólio em que os indivíduos se concentrassem em cenários mais ou menos urgentes na proporção de quão emocionalmente resilientes eles são.
Não estou dizendo que você deve mudar suas crenças sobre futuros possíveis, apenas que você deve mudar qual subconjunto de futuros possíveis você pretende melhorar. Concentrar-se em cenários de cronograma curto é como ser um socorrista. A maioria das pessoas não é temperamentalmente adequada para isso.
Concretamente, o foco em prazos curtos parece estar gerando um subinvestimento em pesquisa fundamental, uma mentalidade de "qualquer regulamentação é boa" (por exemplo, pessoas dizendo que o SB-1047 era a "última chance" para regulamentação em prazos curtos), tribalismo / paranóia (veja o golpe do conselho da openai) etc.
Pessoalmente, estou me concentrando em pesquisas e planos que espero pagar principalmente ao longo de 10 + anos, em parte por causa de minhas crenças empíricas, mas principalmente porque odeio tentar encontrar soluções hacky sob pressão de tempo.
Outros exemplos: o relatório de Consciência Situacional de @leopoldasch era uma mentalidade de escassez (mas ele agora administra um fundo de hedge não é). Muitas pessoas, inclusive eu, ficaram na OpenAI por muito tempo por causa da mentalidade de escassez. De forma mais geral, "* algo * deve ser feito" é uma faca de dois gumes.
22,89K