A criptografia como um substrato verificável para IA existe há muito tempo. é assumido em muitas formas diferentes. Hot take, mas aqui está o porquê de ainda estar pessimista (infelizmente): Os modelos de negócios das empresas de IA estabelecidas estão estruturalmente desalinhados com a verificabilidade OpenAI, Anthropic, Meta AI, XAI, Perplexity, etc. lucram com o controle sobre esses sistemas de caixa preta, evitando a responsabilidade e a adoção em massa de seus produtos / saídas. A verificabilidade ameaça todas essas coisas argumentos (e meus contadores) "Vamos apenas construir sistemas de IA verificáveis" >Sim, 100%, mas vamos ser um pouco mais pragmáticos aqui... A verificação não é apenas sobre padrões técnicos, é quem controla a infra-estrutura. Hoje temos empresas como a Prime Intellect apostando que a única maneira de abordar isso é reconstruir toda a pilha (treinamento, inferência, distribuição) para obter uma verificação significativa. Aparafusar a verificação em sistemas centralizados existentes nunca funcionará BC monopolistas nunca reduziriam voluntariamente seu poder de mercado. Dito isso, a lacuna técnica é enorme onde essas empresas descentralizadas de infraestrutura de IA estão travando uma guerra em duas frentes. eles precisam corresponder à qualidade do modelo existente e, ao mesmo tempo, resolver o problema de verificação. Muitos desses projetos continuam sendo prova de conceitos que funcionam com modelos de menor escala (dezenas de bilhões no máximo em vez de muitas centenas de bilhões) que não conseguem lidar com a escala do mundo real "As empresas querem verificação" > empresas estabelecidas podem atender a essas demandas com seus próprios atestados privados controlados e não exigem blockchains públicos com mais sobrecarga. a receita da empresa é pequena em relação à IA do consumidor do mercado de massa de qualquer maneira "Os consumidores se preocuparão com a confiança e a procedência" >Historicamente, as pessoas nunca pagam pela confiança, a menos que seja uma falha catastrófica. Mesmo assim, as pessoas ainda podem não se importar. A viralidade da desinformação supera o custo da verdade. Sofremos uma lavagem cerebral para pensar dessa maneira desde o início da internet. Pensando bem, a maioria dos usuários nem sabe o que significa confiança e procedência reais. se houver um selo proprietário para uma saída como "verificado pela OpenAI", isso reforça o bloqueio da plataforma, não a agência do usuário final. A confiança será monetizada apenas dentro das plataformas, não como infraestrutura pública "A regulamentação forçará a mão deles" >provavelmente o cenário mais realista, mas apenas se a aplicação for globalmente consistente (LOL sem tiro). E sejamos realistas, a pressão do lobby desses titulares resultará em padrões fracos. Mais uma vez, teremos um mundo onde haverá implementações fechadas que marcam uma caixa para os reguladores Portanto, tudo isso para dizer que as entidades capazes de implementar a verificação em escala não têm incentivo para fazê-lo e as entidades que as desafiam não têm recursos para competir no curto prazo
a16z
a16z23 horas atrás
.@balajis diz que a IA está ampliando a lacuna de verificação. Um grande número de empregos será necessário para fechá-lo. Provocar inunda o mundo com falsificações. A criptografia traz de volta a prova. "Você vai precisar de postagens com hash criptográfico e IDs criptográficos ... para saber que os dados não foram adulterados." Na era da IA, a confiança precisa ser projetada.
1,47K