crypto como um substrato verificável para a IA existe há muito tempo. Ele assumiu muitas formas diferentes. Uma opinião polêmica, mas aqui está o porquê de eu ainda estar pessimista (infelizmente): os modelos de negócios das empresas de IA incumbentes estão estruturalmente desalinhados com a verificabilidade. openai, anthropic, meta ai, xai, perplexity, etc. lucram com o controle sobre esses sistemas de caixa-preta, evitando a responsabilidade e a adoção em massa de seus produtos/resultados. a verificabilidade ameaça todas essas coisas. argumentos (e minhas contrarrazões) "nós apenas construiremos sistemas de IA verificáveis" >sim, 100%, mas vamos ser um pouco mais pragmáticos aqui... a verificação não se trata apenas de padrões técnicos, mas de quem controla a infraestrutura. hoje temos empresas como a prime intellect apostando que a única maneira de abordar isso é reconstruir toda a pilha (treinamento, inferência, distribuição) para obter uma verificação significativa. adicionar verificação a sistemas centralizados existentes nunca funcionará porque os monopolistas nunca reduzirão voluntariamente seu poder de mercado. dito isso, a lacuna técnica é enorme, onde essas empresas de infraestrutura de IA descentralizada estão lutando em uma guerra de duas frentes. elas precisam igualar a qualidade do modelo incumbente enquanto também resolvem o problema da verificação. muitos desses projetos permanecem como provas de conceito que funcionam com modelos de menor escala (dezenas de bilhões no máximo em vez de muitos centenas de bilhões) que não conseguem lidar com a escala do mundo real. "as empresas querem verificação" >os incumbentes podem atender a essas demandas com suas próprias atestações controladas e privadas e não requerem blockchains públicas com mais sobrecarga. a receita empresarial é pequena em relação à IA de consumo de massa de qualquer forma. "os consumidores se importarão com confiança e proveniência" >historicamente, as pessoas nunca pagam por confiança a menos que seja uma falha catastrófica. mesmo assim, as pessoas ainda podem não se importar. a viralidade da desinformação supera o custo da verdade. fomos doutrinados a pensar assim desde a criação da internet. pensando bem, a maioria dos usuários nem saberá o que realmente significa confiança e proveniência. se houver um selo proprietário em um resultado como "verificado pela OpenAI", isso reforça o bloqueio da plataforma, não a agência do usuário final. a confiança será apenas monetizada dentro das plataformas, não como infraestrutura pública. "a regulamentação forçará a mão deles" >provavelmente o cenário mais realista, mas apenas se a aplicação for globalmente consistente (LOL sem chance). e sejamos realistas, a pressão de lobby dessas empresas incumbentes resultará em padrões fracos. novamente, teremos um mundo onde haverá implementações fechadas que apenas atendem a um requisito para os reguladores. então, tudo isso para dizer que as entidades capazes de implementar verificação em escala não têm incentivo para fazê-lo e as entidades que as desafiam carecem de recursos para competir no curto prazo.
a16z
a16z29/07, 03:26
.@balajis diz que a IA está a alargar a lacuna de verificação. Um número massivo de empregos será necessário para a fechar. A inundação de conteúdos falsos no mundo. O Crypto traz de volta a prova. “Vais precisar de publicações com hash criptográfico e IDs de crypto ... para saber que os dados não foram alterados.” Na era da IA, a confiança tem de ser engenheirada.
2,8K