Pensamento pela metade: Nas discussões sobre IA, frequentemente se fazem afirmações tanto sobre capacidades quanto sobre os efeitos sociais, e na prática a fronteira é bastante tênue. Diferentes tipos de personalidade e profissões veem as coisas sob diferentes perspectivas. Correndo o risco de exagerar na caricatura, duas lentes comuns parecem ser as seguintes: O prior em ciência da computação tende a ser: uma ASI suficientemente capaz pode, em princípio, resolver qualquer problema. Conhecimento local é apenas dados a serem ingeridos. Se você for inteligente o suficiente e tiver computação suficiente, pode centralizar (e resolver) tudo. Então, uma vez que você ultrapassa o limiar de 'inteligência' humana, que 'utilidade' um humano poderia ter? O prévio do economista (especialmente a cepa Hayekiana) é: conhecimento não é apenas fatos a serem coletados, é contextual, tácito, muitas vezes gerado no momento por meio da interação. Ele não existe antes do processo que o utiliza. Nenhum poder de otimização permite que você pule o processo, porque o conhecimento não está ali esperando para ser encontrado – ele é constituído pela interação. Na primeira visão, a agência humana se torna epifenômena, você está apenas observando o otimizador fazer seu trabalho. Enquanto no segundo, se o conhecimento é parcialmente constituído por meio da interação, então a agência é um componente central. Na verdade, é ineliminável do próprio processo epistêmico. Isso talvez explique por que os dois grupos falam sem entender. A visão da ciência da computação vê a objeção dos economistas como "os humanos querem se sentir úteis" ou "a IA atual ainda não é capaz o suficiente" – limitações contingentes que serão superadas. A visão dos economistas vê a posição em ciência da computação como um erro de categoria sobre o conhecimento não é uma afirmação sobre níveis futuros de capacidade, mas sobre a estrutura do problema. A visão econômica parece inerentemente menos determinística e sugere alguns benefícios: primeiro, a vez. Se implantação e adaptação são trabalhos reais que não podem ser pulados, a transição não é instantânea. Não existe um "foom" em que um sistema de repente faz tudo. Mas, mais importante ainda, pontos de alavancagem: se a criação de valor requer integração específica do contexto, há muitos pontos em que governança, instituições e escolhas podem moldar resultados. Não é determinado apenas por quem tem o maior cluster de treinamento ou quão capaz é seu sistema. O outro ponto central é basicamente como você pensa sobre alinhamento. Gillian Hadfield explica que "normas e valores não são apenas características de um ambiente exógeno... em vez disso, são os resultados de equilíbrio de sistemas comportamentais dinâmicos." (Com o prior de ciência da computação, alinhamento é um problema técnico de extração da função objetivo correta. Se você tiver o economista priorizado, alinhamento *é* a integração nos processos sociais dinâmicos que constituem o julgamento normativo: produtos, votos, normas, convenções, escolhas, etc. Moldar isso é algo contínuo, não algo a ser resolvido ex ante. Isso não significa necessariamente que a visão de ciência da computação esteja errada: problemas de agentes principais e problemas de acompanhamento de instruções são reais – mas o espaço de soluções é muito maior que o próprio modelo e inclui toda a pilha institucional pela qual sistemas de IA são implantados, governados e responsabilizados.